专利摘要:
第1及び第2の画像からユーザのジェスチャーが認識され、中央領域に対して放射状に配置された相互連動要素をさらに含むコントロールの中央領域にユーザの表象が表示される、認識されジェスチャーを用いた高機能化入力部。当該高機能化入力部はさらに、認識されたユーザのジェスチャーに基づいてコントロールと相互連動することと、コントロールとの相互連動に基づいてアプリケーションを制御することを、含む。
公开号:JP2011513847A
申请号:JP2010548918
申请日:2009-02-27
公开日:2011-04-28
发明作者:エヴァン ヒルドレス;フランシス マクドガル
申请人:ジェスチャー テック,インコーポレイテッド;
IPC主号:G06F3-01
专利说明:

[0001] 本開示は、概して、コントロール(ないしウィジェット)に関する。]
背景技術

[0002] <関連出願とのクロスリファレンス>
本出願は、2008年2月27日に出願された米国特許出願第12/038,626号の優先件を主張する。]
[0003] 入力デバイス又はポインティングデバイスは、コンピュータのユーザがコンピュータにデータを入力することを可能にするハードウェアコンポーネントである。]
発明が解決しようとする課題

[0004] コントロール(ないしウィジェット)は、例えば入力デバイスを用いることなどによって、コンピュータのユーザが相互連動するインタフェース要素であり、データ操作のために単一の相互連動ポイントを提供する。]
課題を解決するための手段

[0005] 一般的な実装形態の1つによると、コントロールが、ユーザが、様々な時間にユーザの画像にアクセスすることに基づいて自動認識されることができる特定のジェスチャーを行うことによって、高機能化オンスクリーンコントロールと相互連動(interact)して、これによってメディアセンター機能を呼び出すことができる。特に、ユーザの表象(representation)を最初に囲む、手を表す記号やカーソルなどのアイコンを表示してもよい。これによって、ユーザの身体の直接的、直感的、自及び然な動きを介して、対応するアイコンの機能を容易に選択することができる。]
[0006] 別の一般的な実装形態に従うと、コンピュータによって実施される処理は、第1及び第2の画像からユーザのジェスチャーを認識するステップと、中央領域に対して放射状に配置された相互連動要素をさらに含むコントロールの中央領域にユーザの表象を表示するステップと、を含む。この処理は、認識されたユーザのジェスチャーに基づいて前記コントロールと相互連動するステップと、前記コントロールとの相互連動に基づいてアプリケーションを制御するステップと、をさらに含む。]
[0007] 実装形態は、以下の特徴の一又は複数を含んでもよい。
例えば、前記ユーザのジェスチャーは、単一又は複数の指ジェスチャー、単一の手ジェスチャー、単一の手及び腕のジェスチャー、単一の手、腕及び体のジェスチャー、両手を使うジェスチャー、頭のポーズや姿勢の変化、目の位置の変化、顔の表情の変化、又は体のポーズ又は姿勢の変化を含んでもよい。
前記ユーザの表象は、カーソル、画像、アイコン、又はアバターでもよい。]
[0008] さらに、前記コントロールは、四角形形状、円形形状、扇形形状を含んでもよい。各相互連動要素は、候補アプリケーションに関連づけられたアイコンをさらに含み、前記コントロールとの相互連動するステップは、前記認識されたユーザのジェスチャーに関連づけられたアイコンを強調表示するステップをさらに含み、前記アプリケーションを制御するステップは、強調表示されたアイコンに関連づけられた候補アプリケーションを制御するステップをさらに含んでもよい。]
[0009] 別の例では、ユーザのジェスチャーは、2次元又は3次元の位置の変位、又は、位置の変位を伴わない変化を含んでもよく。前記ユーザのジェスチャーを認識するステップは、ユーザのジェスチャーの大きさ及び方向を判断するステップをさらに含み、前記コントロールとの相互連動するステップは、判断された大きさ及び方向に基づいて表象を移動するステップをさらに含み、前記アプリケーションを制御するステップは、移動された表象の近傍の相互連動要素に関連づけられた、選択されたアプリケーションを制御するステップをさらに含んでもよい。前記ユーザのジェスチャーは、イネーブリングジェスチャーを含み、前記コントロールは、前記イネーブリングジェスチャーの認識に基づいて表示されてもよい。]
[0010] 別の例では、前記中央領域にユーザの表象を表示するステップは、前記中央領域の外側にユーザの表象を表示するステップと、前記中央領域に目標画像を表示するステップと、少なくとも第3の画像から、再位置合わせジェスチャーを認識するステップと、前記再位置合わせジェスチャーに基づいて、前記目標画像に対して前記表象を移動し、移動された表象が前記目標画像と位置合わせされている場合は、前記中央領域に移動された前記表象を表示するステップと、をさらに含んでもよい。前記コントロールは、前記中央領域に対して放射状に配置された少なくとも8つの相互連動要素をさらに含んでもよい。前記ユーザのジェスチャーを認識するステップが、第1の方向に第1の変位を認識するステップと、第2の方向に第2の変位を認識するステップと、をさらに含んでもよい。]
[0011] 他の例において、前記コントロールと相互連動するステップは、前記コントロールを非アクティブにするステップをさらに含んでもよい。前記コントロールと相互連動するステップは、マウスコントロールモードをアクティブにするステップをさらに含んでもよい。マウスコントロールモードにおいて、指の動きなどの前記さらなるジェスチャーは、マウスイベントにマッピングされてもよい。この処理は、ユーザの識別を認識するステップと、認識された識別に基づいて相互連動要素を選択するステップと、をさらに含んでもよい。前記ユーザのジェスチャーは、カメラの前方の所定の距離に画定された平面の前で検出された場合に、認識されてもよい。前記アプリケーションを制御するステップは、メディアセンターと相互連動するステップをさらに含んでもよい。]
[0012] 別の一般的な実装形態では、コンピュータプログラム製品が、機械によって読み取り可能な媒体において有形に具現化される。当該コンピュータプログラム製品は、機械によって読み込まれると、
第1及び第2の画像からユーザのジェスチャーを認識するステップと、中央領域に対して放射状に配置された相互連動要素をさらに含むコントロールの中央領域にユーザの表象を表示するステップと、認識されたユーザのジェスチャーに基づいて前記コントロールと相互連動するステップと、前記コントロールとの相互連動に基づいてアプリケーションを制御するステップと、を実行させる命令を含む。]
[0013] 別の一般的な実装形態では、デバイスがユーザインタフェースとプロセッサとを含む。
前記ユーザインタフェースは、中央領域に対して放射状に配置された相互連動要素をさらに含むコントロールの中央領域にユーザの表象を表示するように構成される。前記プロセッサは、第1及び第2の画像からユーザのジェスチャーを認識し、認識されたユーザのジェスチャーに基づいて前記コントロールと相互連動し、前記コントロールとの相互連動に基づいてアプリケーションを制御するように構成される。]
[0014] 一又は複数の実装形態の詳細を、添付された図面及び下において記載した。
本開示の他の特徴や効果は、明細書、図面及び請求の範囲から明白である。]
図面の簡単な説明

[0015] 認識されたジェスチャーを使用した高機能化入力を実演する概略図である。
代表的なデバイス200のブロック図である。
代表的な処理のフローチャートである。
代表的なジェスチャーと付随するコントロールとの相互連動を説明する図である。
代表的な手のポーズ又はジェスチャーを示す図である。
コントロールの形状と構成の例を説明する図である。
代表的なジェスチャーと付随するコントロールとの相互連動を説明する図である。
代表的なジェスチャーと付随するコントロールとの相互連動を説明する図である。
代表的なジェスチャーと付随するコントロールとの相互連動を説明する図である。
代表的なジェスチャーと付随するコントロールとの相互連動を説明する図である。
代表的な手のポーズ又はジェスチャーを示す図である。
代表的なジェスチャーと付随するコントロールとの相互連動を説明する図である。
代表的なジェスチャーと付随するコントロールとの相互連動を説明する図である。
代表的なジェスチャーと付随するコントロールとの相互連動を説明する図である。
代表的なジェスチャーと付随するコントロールとの相互連動を説明する図である。
コントロールの形状と構成のいくつかの例を説明する図である。
代表的な処理のフローチャートである。
プロセッサ及びユーザインタフェースをさらに含むコンピューティングデバイス1801の外観の例を示す図である。
図18に示したコンピュータの内部アーキテクチャーを示すブロック図である。] 図18
[0016] 全体を通して、同様の参照符号は、対応する部分を表している。]
[0017] 本出願に記載された高機能化コントロールを使用して、ユーザのジェスチャー又はジェスチャーにおける変化を認識することに基づいて、メディアコンピュータ又はハブを制御するために、デプスカメラ(depthカメラ)のようなカメラを用いることができる。
タッチスクリーンでは指紋によって発生する精度の悪化に悩まされるが、このようなタッチスクリーンとは違って、ジェスチャーに基づく入力は、写真、ビデオ又はその他の画像を、ユーザの自然な体の動き又はポーズに基づいて明瞭に表示する、あるいは、その他の出力を行うことを可能にする。
このような利点を考慮すると、可視的な出力の他の方法による操作、音楽又はその他の音を再生する機能などのその他の機能又はその他のメディアアプリケーションの直感的な呼び出し、その他のアプリケーションとの相互連動、あるいは仮想的な環境若しくは世界のナビゲートを行うことができるその他のジェスチャーを認識するように、高機能化コントロールを拡張してもよい。]
[0018] 本出願全体を通して、「ジェスチャー」とは、人体の一部を用いて行われる非言語コミュニケーションの形態を意味し、これは音声などの言語コミュニケーションの形態とは対照的である。
例えば、ジェスチャーは、第1の位置、ポーズ又は表現と、第2のポーズ、位置又は表現との間の、動き、変化又は形態変化によって規定することができる。
日常会話で使用される一般的なジェスチャーには、例えば、「エアクォーツ」ジェスチャー、お辞儀ジェスチャー、会釈、頬キス、指若しくは手の動き、片膝をつくこと、頭を振ること、又は頭を動かすこと、ハイファイブ、頷き、悲しい顔、握りこぶしを上げること、敬礼、親指を上げる動き、又は指し示すジェスチャーが含まれる。
ジェスチャーはカメラを使用して、例えば、ユーザの画像を解析する、傾きセンサを使用して、例えば、ユーザが装置を保持している、又は傾けている角度を検出する、あるいはその他のアプローチを用いて検出することができる。]
[0019] 体の一部によって、その位置を変えるジェスチャー(又は「ジェスチャー表現」)(すなわち、揺れる動き)を行う、又は体の一部によって、その位置を変えないジェスチャー表現(すなわち、握りこぶしを固める)を行ってもよい。
高機能化コントロールは、カメラ入力による機能の制御を行うために、例として、手及び腕のジェスチャーを使用するが、他の種類のジェスチャーを使用してもよい。]
[0020] 図1は、認識されたジェスチャーを使用した高機能化入力を実演する概略図である。
図1では、ユーザ101(ボブ)が、メディアハブ103とカメラ104のディスプレイ102の前に立っており、快適な音量で再生されている音楽を聴いている。
このユーザの右腕105、右手106及び胴107は、カメラ104の画角109の範囲内にある。] 図1
[0021] メディアハブ103に対して音楽の音量を上げてほしいというユーザの要望を指示するため、ユーザ101は、自身の胴107の前でカメラ104に向かって自身の右腕105と右手106を伸ばし、自身の右腕105を上方向の動きをするように動かすことによってジェスチャー表現をする。
メディアハブ103は、ユーザの右手106の手の平を前に出して指を伸ばしたポーズを、ジェスチャーに基づく制御入力が間もなく行われることを意味するものとして認識する。
換言すると、ユーザの右手106の手の平を前に出して指を伸ばしたポーズを形成していなければ(例えば、ユーザの右手106が丸くなっていれば)、メディアハブ103はユーザの動きやジェスチャーを無視してもよい。]
[0022] 画像の一部110から、ユーザ101の顔が検出され認識され、「ボブ」としてユーザ101が識別される。
画像の一部111から手106のポーズが検出される。この場合は、手の平が前に出て5本の指すべてが完全に伸びて離れているポーズである。
第2の画像から、手111の位置の変化も検出又はその他判断され、腕105の上方向の腕の動きによって行われるジェスチャーを自動的に判断又は認識することが可能になる。]
[0023] ユーザインタフェース112に高機能化コントロール114が表示される。
この例では、ホイール形状の高機能化コントロール114が、8つの相互連動要素115を含んでおり、これらそれぞれが、一又は複数のアイコン、機能及びアプリケーションに関連づけられている。
例えば、相互連動要素115aが、ウェブブラウザ機能に関連づけられており、相互連動要素115cが、ユーザ別の写真アルバム機能に関連づけられており、相互連動要素115dが、音量下げ機能に関連づけられており、相互連動要素115eが、電子メール機能に関連づけられており、相互連動要素115fが、コントロール無効化機能に関連づけられており、相互連動要素115gが、ユーザ別の音楽機能に関連づけられており、相互連動要素115hが、音量上げ機能に関連づけられている。
相互連動要素115は、メディアハブ103のすべてのユーザに対して普遍的で同じであってもよく、認識されたユーザ101の識別に基づいて決められる、又は、選択されるものであってもよい。]
[0024] 高機能化コントロール114が、ハブアンドスポークの外観の2次元的なホイールを有するように図示されているか、他の実装形態においては、他の形状を用いることもできる。
例として、高機能化コントロール114は、線形、三角形、3次元的、矩形であってもよく、又は高機能化コントロール114は、扇形を占めていてもよい。
高機能化コントロール114は、略非対称な形状であってもよく、略対称な形状であってもよい。]
[0025] 加えて、高機能化コントロール114は、ユーザインタフェース112の中央に位置合わせされていなくてもよく、あるいはユーザインタフェース112内の単一の位置に固定されていなくても全くかまわない。
例えば、ユーザインタフェース112が高機能化コントロール以外の他のオブジェクトを表示する、あるいはユーザインタフェース112の領域が不明瞭になるに従って、高機能化コントロールは、自身を動的に再配置する、自身の形状を変化させる、あるいは表示される相互連動要素の数を変えてもよい。
また、特定の認識されたユーザのために動的に選択される、あるいは全てのユーザに対して同様に選択されることに加えて、例示の相互連動要素の数を選択してもよい。]
[0026] 認識された「腕105の上方向の動き」のジェスチャーに基づいて、表象116(この場合、手の形をしたカーソル)が、コントロール114の中央領域117から動き、相互連動要素115hと重なり合う、あるいはこの近傍となると、これによって、相互連動要素115hとの相互連動が行われる。
このような相互連動が、相互連動要素115hに関連づけられた音量上げ機能を呼び出し、起動し、あるいはその他の実行をして、さらにメディアハブ103が出力する音楽の音量を上げる。]
[0027] 図2は、高機能化入力を実施するために用いられるデバイス200のブロック図である。
簡潔に書くと、デバイス200は、他のものに加えて、ユーザインタフェース201、記憶媒体202、カメラ204、プロセッサ205及び傾きセンサを備える。
ユーザインタフェース201は、ユーザが、デバイス200と、あるいはデバイス200により起動されたアプリケーションと、相互連動することを可能にする機構である。
ユーザインタフェース201は、入力と出力の両方の機構を提供することができ、ユーザがデバイスを操作すること、又は、デバイスがユーザの操作を実現ことを可能にする。
デバイス200は、グラフィカルユーザインタフェース(GUI)、ボイスユーザインタフェース、又は触知性ユーザインタフェースなどの任意の種類のユーザインタフェース201をも利用することができる。] 図2
[0028] ユーザインタフェース201は、可視的な表示画像をレンダリングするようにも構成してもよい。
例として、ユーザインタフェース201は、モニタ、テレビジョン、液晶ディスプレイ(LCD)、プラスマディスプレイデバイス、プロジェクタースクリーン付きのプロジェクター、自動ステレオスコピックディスプレイ、陰極管(CRT)ディスプレイ、デジタル光プロセッシング(DLP)ディスプレイ、あるいは表示画像をレンダリングするように構成された任意の種類の表示デバイスであってもよい。
ユーザインタフェース201は、一又は複数の表示デバイスを備えていてもよい。
構成によっては、ユーザインタフェース201が、アバターなどのオブジェクトないし表象等のアプリケーションが生成する表示画像などの、アプリケーションに関連づけられた画像を表示するように構成されている。]
[0029] 記憶媒体202は、情報又はデータを記憶し、記録するものであって、光学的記憶媒体、磁気記憶媒体、フラッシュメモリー、あるいはその他の種類の記憶媒体であってもよい。
記憶媒体には、他のものに加えて、認識されたジェスチャーを用いた高機能化入力を実行させる、高機能化コントロールアプリケーション207がエンコードされている。]
[0030] カメラ204は、静止画写真又は一連の動画のいずれかの画像を撮像するために用いられるデバイスである。
カメラ204は、可視スペクトルの光を使用する、又は赤外線などの他の電磁スペクトルの一部をともに使用することができる。
例えば、カメラ204は、デジタルカメラ、デジタルビデオカメラ、又は画像を撮像するように構成されたその他の任意の種類のデバイスであってもよい。
カメラ204は、一又は複数のカメラを含んでいてもよい。
幾つかの例においては、カメラ204は、オブジェクトの画像、又はアプリケーションと相互連動しているユーザの画像を撮像するように構成されてもよい。
例えば、カメラ204は、自由空間で物理的にジェスチャー表現をしている、又はカメラ204の画角の範囲内でアプリケーションとその他の相互連動をしているユーザないし人の画像を撮像するように構成されてもよい。]
[0031] カメラ204は、ステレオカメラ、タイムオブフライトカメラ(飛行時カメラ)又はその他の任意のカメラであってもよい。
例えば、カメラ204は、ユーザの動き、そして、同様にジェスチャー、を検出するために背景画像をサンプリングすることができる画像検出器であってもよい。
カメラ204は、グレースケール画像、カラー画像、又は距離画像を生成することが可能なカメラであり、距離画像を生成することができるステレオカメラやタイムオブフライトカメラなどでもよい。
ステレオカメラは、少し異なる視点から画像を取得する2つのイメージセンサを備え、プロセッサが異なる視点から取得した画像を比較して画像の部分間の距離を計算するようにしてもよい。
タイムオブフライトカメラは、赤外光等の光パルスを発生させるエミッターを備え、このエミッターにおいて、エミッターからの光パルスが被写体とセンサの間を行き来する時間を測定して画像の各部分の距離を算出するようにしてもよい。]
[0032] デバイス200は、有線又は無線の経路を介して、カメラ204とユーザインタフェース201と電気的に接続されており、これらと通信可能であり、プロセッサ205の動作を制御して高機能化コントロールを提供するように構成されている。
一つの構成において、デバイス200は、プロセッサ205又は他の制御回路を利用して高機能化されたカメラに基づく入力を提供するアプリケーションを実行する。]
[0033] デバイス200をパーソナルコンピュータ(PC)又はセットトップボックスであるものとして説明したが、そのような説明は単に簡潔にするために行っただけであって、他の実装形態や具現化も想定される。
例として、デバイス200は、テレビジョン、ウルトラモバイルパーソナルコンピュータ(UMPC)、モバイルインターネットデバイス(MID)、デジタル写真フレーム(DPF)、携帯型メディアプレイヤー(PMP)、汎用コンピュータ(例えば、デスクトップコンピュータ、ワークステーション、又はラップトップコンピュータ)、サーバ、ゲームデバイス若しくはコンソール、又は命令を実行するように構成されたプロセッサ又は他の制御回路を備えたその他の任意の種類の電子デバイス、又はユーザインタフェースを備えた他の人の装置として実装されてもよい。]
[0034] 1つの実装例では、カメラを使用してジェスチャーを行うユーザの画像を検出することによって、入力が行われる。
例として、移動体電話をテーブルの上に配置して、顔に向けたカメラを用いてユーザの画像を生成するように動作するようにしてもよい
あるいは、傾きセンサ209を用いてジェスチャーを認識して検出してもよく、例えば、「左に傾斜」のジェスチャーを検出すると、表象を左に移動させて、コントロールの左側に配置された相互連動要素を選択するようにしてもよく、又は、「右前方に傾斜」のジェスチャーを検出すると、表象を中立位置から上方及び右側に移動させて、コントロールの右上側に配置された相互連動要素を選択するようにしてもよい。]
[0035] このように、傾きセンサ209は、例えば、ジャイロスコープ、加速度計、又はカメラに基づく光学的フロートラッカー(動き追跡器)など、デバイス200の角度位置を検出するように動作することができる任意の種類のモジュールでよい。
この点については、ユーザが所望する機能又は命令を実行するために、画像に基づく入力を、傾きセンサの入力により補完する、又は、傾きセンサの入力で換えてもよい。
換言すると、ユーザのジェスチャーの検出を、カメラを使用せずに行ってもよい。
ユーザインタフェース上のコントロールで可視化される同一の種類のストロークパターンでデバイスを動かすことによって、ユーザは直接的な方法で同一のインタフェース又はアプリケーションを制御することができる。]
[0036] 図3は、認識されたジェスチャーを使用して高機能化入力を実行する、コンピュータによって実施される処理300を説明するフローチャートである。
簡潔には、コンピュータによって実施される処理300は、第1及び第2の画像からユーザのジェスチャーを認識し、中央領域に対して放射状に配置された相互連動要素をさらに含むコントロールの中央領域にユーザの表象を表示することを含む。
この処理は、認識されたユーザのジェスチャーに基づいてコントロールと相互連動し、コントロールとの相互連動に基づいてアプリケーションを制御することをさらに含む。] 図3
[0037] より詳細には、処理300が開始すると(S301)、第1及び第2の画像からユーザのジェスチャーが認識される(S302)。
第1及び第2の画像は、ビデオシーケンスを構成する、個々の画像スナップショット又は一連の画像から抽出することができる。
各画像は、ユーザ若しくはユーザの一部の、ポーズ、位置、表現、姿勢、又はその他の状態をアプリケーションが判断することを可能とする位置情報を撮像している。]
[0038] したがって、2つの画像から、ユーザの考え、意図、感情、コミュニケーション、命令、実演又は表現を規定するジェスチャーを導き出すことができる。
例えば、ユーザのジェスチャーは単一又は複数の指のジェスチャー、単一の指のジェスチャー、単一の手及び腕のジェスチャー、単一の手、腕及び身体のジェスチャー、両手を使用したジェスチャー、頭のポーズ又は姿勢の変化、目の位置の変化、顔の表情の変化、身体のポーズ又は姿勢の変化、又はその他の任意の表現される身体の状態の形態変化であってもよい。]
[0039] 簡潔のため、当該ジェスチャーを行うために用いられる身体の一部分又は幾つかの部分を、総じて「コントロールオブジェクト」と呼ぶ。
例えば、ユーザは身体全体又はその他の物理的なオブジェクトを用いて命令を表現してもよい。この場合、身体全体又はその他の物理的なオブジェクトを、コントロールオブジェクトとしてもよい。
ユーザは、目を瞬きする、鼻孔を動かす、又は指を小刻みに動かすことによって、より詳細に命令を表現してもよい。この場合、まぶた、鼻又は指をコントロールオブジェクトとしてもよい。
単一の画像又は2つの画像の間のユーザのジェスチャーは、イネーブリングジェスチャー又は「エンゲージメント」ジェスチャーを表現するものとしてもよい。]
[0040] カメラの画像からユーザのジェスチャーを判断する方法は多くある。
例えば、「空間に円を描く」又は「一方向に手を大きく振る」ジェスチャーを、手、腕、身体、頭、又はその他のオブジェクトの位置情報を用いたジェスチャー解析及び検出処理によって検出することができる。
大きく振るジェスチャーが行われた時など、2次元又は3次元の位置変位をジェスチャーが伴うこともあり得るが、他の場合では、ジェスチャーには、付随する位置変位のない、形態変化が含まれる。
例えば、5本の指を伸ばし、手の平を前に向けて「止まれ」を手で合図する場合、手の平を前に向けたまま5本の全ての指を曲げて丸くすると、ユーザのポーズは変化する。このように、手や腕の全体的な位置を動かさなくても、ジェスチャーは表現される。]
[0041] ジェスチャーは、手の位置の情報が明示的なルール群を表すか否かを判断するなどの、発見的手法(ヒューリスティック法)を用いて検出してもよい。
例えば、「一方向に手を大きく振る」のジェスチャーは、以下のジェスチャー検出ルールが満たされた場合に特定することができる。すなわち、(1)所定の限度よりも短い期間における水平方向の位置変化が所定の距離よりも大きい;(2)前記期間において水平方向の位置変化が単調である;(3)前記期間において垂直方向の位置変化が所定の距離よりも小さい;及び(4)前記期間の終了時における位置が、前記期間の開始時の位置よりも手の検出領域の境界に近いかその境界上にある、である。]
[0042] いくつかのジェスチャーは、明示的な順序で実行されて満たされる複数のルール群を利用し、1つのルール群を満たすと、異なるルール群が適用される状態にシステムが変化するようにする。
このシステムは、僅かなジェスチャーを検出できない場合は、隠れマルコフモデルを用いてもよい。隠れマルコフモデルは、特定の動きの連鎖を検出することを可能としながら、幾つかの動きが十分にジェスチャーに合致しない全体的な確率も考慮することができる。]
[0043] エンゲージメントジェスチャーは、ジェスチャーに基づく命令入力についてその他の画像を監視し、無作為な、又はバックグラウンドの身体の動きを無視する機能をアクティブとする、又は呼び出す。
一例では、エンゲージメントジェスチャーは、所定の時間の間保持された、ディスプレイの前のカメラのトラッキング領域においてジェスチャー表現された特定の手のポーズ又は手の動きのシーケンスである。
一例のジェスチャーは、すべての指と親指をばらばらに広く広げて上方向の位置に手を保持した、手のポーズである。]
[0044] 身体、腕、又は手のジェスチャーに加えて、一又は複数の画像から指で指し示すジェスチャーを認識することができる。
例えば、ユーザの指先を使って「左を指す」ジェスチャーを行うことができる。これは指の画像を解析することによって検出することができる。
指し示す指先の方向を判断するために、指紋解析、又はその他のアプローチを用いることができる。
他の代表的な実装例では、例えば、ジェスチャーが言語のジェスチャーである場合、または、傾きセンサや加速度計を用いて計算される場合などでは、上述のように、カメラを用いずにジェスチャーを検出することができる。]
[0045] 図4は、例示的なエンゲージメントジェスチャーとそのエンゲージメントジェスチャーの結果として生じるユーザインタフェースを示す。
より詳細には、カメラ402によって撮像されるユーザ401の2つの画像によって、下方向の第1の位置404から手の平を前方に向け伸ばした第2の位置405へのユーザの腕のジェスチャー表現が捕捉される。
ユーザ401がこのジェスチャー表現を行うことによって、ユーザの表象406がユーザインタフェース407に表示され、加えて、目標画像409(十字線)がユーザインタフェースの中央に表示される。
以下に詳細に説明するが、ジェスチャーを行う際、ユーザの手410が、カメラ402の画角411の中央にないので、表象406はユーザインタフェース407の右下の隅の領域に現れ、これによって再位置合わせ処理を呼び出すことが可能となる。] 図4
[0046] ジェスチャー又はジェスチャーの変化を認識することに加えて、画像からは他の情報を判断してもよい。
例えば、画像に顔の検出及び認識処理を行って、画像内のユーザの存在や識別を検出してもよい。
識別情報は、例えば、利用可能な選択肢又は表示する相互連動要素を判断、又は選択するため、あるいは複数のユーザが入力機能に携わることを試みている場合に、画像内の多くのユーザの中でどのユーザをコントロールするユーザとして指定するかを判断するために用いられる。]
[0047] 図4において、顔検出処理が、顔を含む領域412及び414を特定し、顔認識処理が、大人ユーザ401と子供(又は特定されない)ユーザ415の識別を判断する。
この判断された識別情報から、子供が存在すること、又はユーザ401がユーザ415よりも高い優先度を有することをデバイスが判断し、これによって、ユーザに対する選択肢を減らしてコントロールを介して表示する、又は、子供のユーザ415がデバイス416のコントロールを大人のユーザ401から獲得すること不許可とすることができる。] 図4
[0048] ユーザ401がユーザ415よりも高い優先度を有する場合、ユーザ401は、ユーザ415にコントロールを移譲する、又は、ユーザ415にコントロールを獲得する権限を与えるジェスチャーをすることができる。
例えば、ユーザ401は、ユーザ415の「頭をなでる」ジェスチャーをして、これによってデバイスのコントロールをユーザ415に以上するようにしてもよい。
ユーザ401によるジェスチャーは、能動的な手法(例えば、再ジェスチャー表現)又は受動的な手法(例えば、タイムアウト)によってユーザ401がコントロールを再び得るまで続行する。]
[0049] ユーザの識別に基づいてユーザのジェスチャーを選択的に認識することに加えて、他の基準を用いて、擬似的な制御ジェスチャーなどの関係のない、あるいは意図しない「候補」ジェスチャーを除去することができる。
例えば、カメラ前方の所定の距離に平面を画定し、その平面のカメラから遠い側で行われる、又は、実行されるジェスチャーは無視し、一方で、カメラとその平面の間で実行されるジェスチャー、又は潜在的なジェスチャーは監視し、特定し、認識し、フィルタリングし、適切に処理する。
このような平面は、他の点、位置、又は、例えば、ユーザの胴体などの被写体に対して画定してもよい。]
[0050] 複雑な命令の入力を可能とし、入力の選択肢の数を増加するため、ユーザのジェスチャーを認識する処理は、第1の方向における第1の変位を認識する工程と、第2の方向における第2の変位を認識する工程と、これらの複数の変位を単一のジェスチャーとして集約する工程とをさらに含んでもよい。
また、ユーザのジェスチャーを認識する際に、ユーザのジェスチャーの大きさ及び方向を判断してもよい。]
[0051] 図5でポーズ501として示す、指を伸ばして手の平を前方に向ける手のポーズを、制御を行う手のポーズの代表的な例としてここでは例示して説明するが、その他の手のポーズ、又は、手のポーズの間の変化、移行も、同様の手法でエンゲージメントポーズ又はジェスチャーとして認識させてもよい。
制御、又は、エンゲージメント(参加)を表すために使用し得る他の手のポーズとして、例えば、指を上に向けて手の平を前方に向ける手のポーズ502;親指を上げて指を曲げる手のポーズ504;及び、指を前方に伸ばし、親指を上げる手のポーズ505が含まれる。] 図5
[0052] 図3に簡単に戻ると、イネーブリングジェスチャーが行われ認識されるなどすると、ユーザの表象を、中央領域に対して放射状に配置された相互連動要素をさらに含むコントロールの中央領域に表示することができる(S304)。
初心者ユーザに対しては、ユーザがインタフェースと相互連動することを促すためにユーザの表象を表示してもよいが、ジェスチャーを行うことに慣れているエキスパートユーザに対しては、表示しないようにしてもよい。
例えば、通常のモード又は上級モードでは表象を表示しないが、チュートリアルモードではユーザの表象を表示するなどのように、ユーザの表象を表示する、又は表示しないについては、ユーザがインタフェースを構成設定してもよい。
ユーザがエンゲージメントジェスチャーを実行したが、ユーザが制限時間内にアイテムを選択するジェスチャーを実行しなかった場合に、インタフェースが表象を表示するようにしてもよい。] 図3
[0053] コントロールの形状及び構成は、特定の脈絡に従って変化してもよく、例えば、円形形状、矩形形状、対称な形状又は非対称な形状、線形形状、多角形形状、異形形状でもよく、又は扇形形状であってもよい。このようなコントロールには、一又は複数の相互連動要素が中央領域の近傍に配置される。
コントロールが円形であって相互連動要素が放射状に向いて配置されている場合、かかるコントロールを「ジェスチャーホイール」と呼ぶ。]
[0054] 代表的なジェスチャーホイールの周上には、それぞれアイコンとして表わされる、8つの異なる機能と関連づけられた8つの点が含まれる。
ホイールの中央を、ユーザインタフェース、又はユーザインタフェースの空白領域の中央位置などの目標位置となるようにしてもよい。これによって、指向性の動きによって機能を呼び出す場合に、ユーザが自身の身体のコントロールオブジェクトを、呼び出そうとするその機能の一般的な方向に単純に移動させることができる。
他の代表的なジェスチャーホイールは、8よりも多い、又は、8よりも少ない相互連動要素を含む、あるいは、可変の数の相互連動要素を含む。
例えば、ジェスチャーホイールは、単一の相互連動要素、10の相互連動要素、あるいは数ダース、数百又は数千の相互連動要素を含んでもよい。]
[0055] 空き領域判断機能は、画面の空き領域の位置を繰り返し特定して、コントロールの形状及び大きさを動的に選択して、その動的に選択されたコントロールを、繰り返し位置が特定された空き領域の内部に提示することができる。
例えば、コントロールは、自身を繰り返し調整するので、シミュレーションされた跳ね返るボールなど、ユーザインタフェースにおいて動画像が重なり合うことを避けることができる。]
[0056] 図6は、高機能化コントロールのいくつかの代表的な形状及び構成を示す。
コントロール601は、ハブアンドスポーク(放射)状に中央領域604から広がる8つのアイコン602a〜602hを含む円形のコントロールである。
中央領域604は、ユーザインタフェース605の略中央に位置合わせされる。
コントロール606は、ユーザインタフェース610の右下の隅の近傍に位置する中央領域609から、4つのアイコン607a〜607dを含む90°の扇形部分を占める扇形のコントロールである。これら4つのアイコン607a〜607dも同様にハブアンドスポーク状に広がっている。] 図6
[0057] コントロール611は、ユーザインタフェース615の略中央に位置合わせされた中央領域の周りのブロック状の相互連動領域614a〜614h内に位置する8つのアイコン612a〜612hを含む矩形のコントロールである。
コントロール616は略円形であり、ハブアンドスポーク状に中央領域619から広がる8つのアイコン617a〜617hを含み、加えて、ユーザインタフェース622上の複雑な経路621a及び621bに沿って中央領域619から広がる2つのアイコン620a及び620bを含む。]
[0058] 経路621は、単なる線形ではなく、また、アイコンをアクティブ化するために複数の方向にユーザがジェスチャー表現を行うことを必要とし得るという点で「複雑」である。
例として、ユーザが特定の距離の分、左上の所定方向にジェスチャーをし、そして上方向の動きをせずに左にジェスチャーをした時に、アイコン620bがアクティブ化されるようにしてもよい。
また、アイコン620aは、「ディスエーブルコントロール」のアイコンに関連づけられていて、呼び出された場合にコントロール616をディスエーブル、又はオフにするように機能するということも特筆すべきである。]
[0059] 相互連動要素には、一又は複数の機能若しくはアプリケーションに関連づけられたコントロールの任意の部分も含まれる。
例として、各相互連動要素は、選択された場合にアプリケーションを呼び出すアイコンを含んでもよい。
コントロールが複数の相互連動要素を含む場合、コントロールを介して選択され得るアプリケーションをそれぞれ、「候補」アプリケーションと呼ぶ。]
[0060] コントロールが円形である1つの構成では、相互連動要素をスポーク状とすることができ、コントロールの中央から、機能若しくはアプリケーションを呼び出すアイコンで終端するまで広がって延在する線が見える。
この場合、身体が小刻みに震えることにより生じるような小さなジェスチャーは、表象がスポークの全長を移動してスポークの遠端に配置された各アイコンに到達するほど十分に大きくない限り、相互連動要素に関連づけられたアプリケーションを呼び出すことのないように無視される、又は、無効となるようにしてもよい。]
[0061] コントロールがパイ状の別のアプリケーションでは、相互連動要素に入り込む表象の任意の動き(又は閾値を超える動き)によって、相互連動要素が機能若しくはアプリケーションを呼び出すように、相互連動要素は、扇形(パイ状)領域の形状を有してもよい。
相互連動要素(又は相互連動要素の外側部分)から中央領域を分離する可視又は不可視なガイド線を画定することによってこの閾値を定め、表象がガイド線を横切る際に表象の近傍であることに基づいてガイド線が選択されるようにしてもよい。
このような構成によって、相互連動領域の選択を迅速化することが可能となり、ユーザによる動きの正確さに対する要求を緩くし、又は、精細な動きを認識するためにアプリケーションによって生じる計算コストを削減することができる。]
[0062] 閾値は、距離及び/又は速さの関数としてもよい。
具体的には、以前にユーザがある期間にわって実行して記録されたジェスチャーの距離及び速さに基づいて、閾値の乗算係数を、ある期間にわたるユーザのスタイルに適応させることができる。
あるいは、閾値の乗算係数を、ジェスチャー時に観測された速さに基づいて、ジェスチャーが行われている間のユーザのスタイルに適応させてもよい。
閾値の距離は、(腕を大きく振るスタイルのユーザに対して)ユーザが速く動く場合に延長する、あるいは(より慎重なスタイルユーザに対して)ユーザがゆっくり動く場合には短くしてもよい。
閾値の距離は、ユーザが以前にジェスチャーを実行した際に動いた平均距離に従って設定してもよい。]
[0063] スポークの半径と角度は、尤度の高いアイテム又は相互連動要素を選択することが容易になるように、アイテムが選択され得る尤度に応じて変化していてもよい。
具体的には、ユーザインタフェース624に示されるように、尤度が高い、又は人気のあるアイテムのスポーク625の半径は、通常のアイテムに関係づけられたスポーク626よりも短くしてもよい。
また、尤度の高いアイテムの間の角度627をそれほど人気のないアイテムの角度629よりも大きくしてもよい。これによって、尤度の高いアイテムを選択することが容易になる。
コントロール630上のアイテムに関連づけられた尤度、すなわち、そのスポークの属性は、アイテムの人気度に従っていてもよく、ユーザが最近そのアイテムにアクセスした回数に動的に基づいていてもよく、より大きなサンプリングによるそのアイテムへの最近のユーザのアクセス回数に関する統計情報に動的に基づいていてもよく、アイテムの使用の期待に基づいて予め決められていてもよく、あるいは、ベンダーがどのアイテムを推進するかに予め基づいてもよい。]
[0064] 人気度をコントロールの間隔及び角度をベースにすることに加えて、コントロールのこれらの質又はこれら以外の質を、ユーザのジェスチャーやジェスチャーの一部に依存させてもよい。
例えば、ユーザが右方向に振れるジェスチャーを行った場合、ユーザインタフェース624に示すように、右側のアイテムが広がって、それらの選択が容易になるようにしてもよい。
そして、動的に位置合わせされた相互連動要素に追従するように、ユーザが自身のジェスチャーの経路を調整してもよい。これによって、曲がったジェスチャー経路となる。]
[0065] 特定の相互連動要素によって他の相互連動要素が現れ、複雑な経路が現れる、又は、画定されるようにしてもよい。
例えば、親の相互連動要素が、機能のカテゴリー(複数の場合を含む)を表し、親の相互連動要素が選択されると、それぞれが機能カテゴリーの各々を表す複数の子の相互連動要素が、親の第1の相互連動要素から放射状に広がって現れるようにしてもよい。
例えば、ユーザインタフェース631では、表象632がメールアイコン633(すなわち、親の相互連動要素)の上をホーバーした場合に、選択されたメールアイコン633から、メール読み出しアイコン635、メール作成アイコン636、及びメール検索アイコン637(子の相互連動要素)が発生し放射状に広がる。]
[0066] メールアイコン633を選択する前の初期状態では、コントロール639はユーザインタフェース631内の中央に配置され、メールアイコン633の1つが選択されると、子の相互連動要素が容易に選択できるように、コントロール639を隅に移動するようにしてもよい。
あるいは、コントロール639は初期状態において、既にユーザインタフェース631の隅に配置しておいてもよい。]
[0067] この場合、親の相互連動要素の方向の動きに続く子の相互連動要素のアイテムの方向の動きを含む、複雑な経路が画定されるようにしてもよい。
子のアイテムが現れる際には、親と兄弟関係にあるものが画面から消え去るようにして、通常画面に収まるアイコンの数よりも多くのアイコンを選択できるようにしてもよい。
例えば、メールアイコン633の選択の前の状態では、コントロール639が、より多くの相互連動要素を含んでいてもよく、例えば、コントロール601と同様な視覚的な外観を有していてもよい。]
[0068] 一実装形態では、イネーブリングジェスチャーによって、ユーザの身体のコントロールオブジェクト(すなわち、手)が都合の悪い位置に配置されることもあり得る。
例として、「大きく振る(swiping)」というイネーブリングジェスチャーの結果として、ユーザの手が、カメラの画角の境界の近く又は外側に位置することになり得る。
このような状況や他の状況において、今後のジェスチャー認識を容易にする、又は改善させる(自由空間における)目標位置に、ユーザのコントロールオブジェクトの向きを合わせる、又は、位置合わせする処理を行ってもよい。
自由空間における目標位置は、カメラの画角の中央位置などの位置に予め定めてもよい。あるいは目標位置は、動的に決められてもよく、例えば、良好に照光された位置、コンストラスト比が高い領域、又は複雑な背景のない領域、又は他の運動をしている被写体から離れた画角の領域に決定してもよい。]
[0069] ジェスチャーの認識を改善するためにユーザの位置を位置合わせする1つのアプローチとして、ユーザインタフェース、又はコントロールに目標画像と表象を表示し、ユーザに推測させる、又は、ユーザの身体の動きによって表象を移動させて、表象を目標画像と位置合わせさせるものがある。
このように、ユーザの表象を最初は中央領域の外に表示し、中央領域に目標画像を表示させてもよい。]
[0070] 他の画像で再位置合わせジェスチャーを認識し、その再位置合わせジェスチャーに基づいて、目標画像に対して表象を動かしてもよい。
移動された表象が目標画像と位置合わせされている場合、中央領域に表象が表示される。
再位置合わせによって、ユーザの手を確実にカメラの画角の中に留まるようにしてもよく、ユーザが、一又は複数の方向のジェスチャーを行うため、確実に腕のリーチが十分となるようにしてもよい。]
[0071] 図7に、再位置合わせの代表的なジェスチャーを示す。ユーザ701は、第1の位置702から第2の位置703へとユーザの左手を上方に移動するジェスチャー表現をしている。これによって、ユーザインタフェース704内の表象も、第1の位置705から第2の位置706へと移動する。
第2の位置706がユーザインタフェース707の中央の目標画像707と位置合わせされると、ジェスチャー表現によって最初に高機能化コントロールが現れる。
その後、ユーザが高機能化コントロールと相互連動するジェスチャー表現をした場合、コントロールオブジェクトを画角に対して所望の位置に配置し直すさらなる再位置合わせ処理を行ってもよい。] 図7
[0072] 別の構成では、自由空間におけるコントロールオブジェクトの位置に対応するユーザインタフェースの位置にマウスカーソルを表示してもよい。
あるいは、このコントロール自体が、ユーザインタフェースの中央ではない位置から離れて移動してもよく、又は、ユーザインタフェースの中央ではない位置で最初に生成されていてもよい。
例えば、イネーブリングジェスチャーの結果として、ユーザの手がカメラの画角の左上方向の遠方に位置する場合、コントロールは、ユーザインタフェース上の右頂部から放射状に広がる90°の扇形として生成されてもよい。
このような場合、コントロールがユーザインタフェースの中央に配置され、相互連動要素により完全に包囲される状態と比較して、同数、又は、より少ない数の相互連動要素を表示することができる。]
[0073] いずれにしても、図3に戻ると、表象が一旦コントロールの中央領域の内部に表示されると、ジェスチャーコントロールに対してインタフェースが実行可能になる。
認識されたユーザのジェスチャーに基づいて、コントロールとの相互連動が発生する(S305)。
認識されたユーザのジェスチャーは、表象を、自由空間におけるユーザの動きの方向と大きさに基づく方向と大きさで、コントロールの中央領域から離れるように移動させ、表象が一又は複数の相互連動要素と重なり合うようすることができる。] 図3
[0074] この大きさは、距離と速さの関数としてもよい。
大きさの乗算係数を、以前にユーザがある期間にわってジェスチャーを実行して記録された距離及び速さに基づいて、大きさの乗算係数を、ある期間にわたるユーザのスタイルに適応させることができる。
あるいは、大きさの乗算係数を、ジェスチャー時に観測された速さに基づいて、ジェスチャーが行われている間のユーザのスタイルに適応させてもよい。
大きさの乗算係数は、(腕を大きく振るスタイルのユーザに対して)ユーザが速く動く場合は減少する、あるいは(より慎重なスタイルユーザに対して)ユーザがゆっくり動く場合には増大するようにしてもよい。]
[0075] マウスイベントと同様に、表象が特定の相互連動要素と重なり合う、あるいは特定の相互連動要素を選択した場合、コントロールは使用不可となり、その下位の相互連動要素又はアイコンが強調表示され、当該下位の相互連動要素に関連づけられたアプリケーション又は機能の一又は複数が呼び出される、実行される、ロードされる、プリロードされる、又は、その他の動作をしてもよく、別のモード(例えば、「マウスコントロールモード」など)がアクティブ化されてもよく、あるいは、コントロールの一部と表象が重なり合って表示されること以外、何も起こらないようにしてもよい。]
[0076] 図8は、ジェスチャーとそれに関連するコントロールとの相互連動の例を示している。
具体的には、ユーザ801は、自身の腕を第1の位置802から第2の位置803へと動かしてジェスチャー表現する。これによって、ユーザインタフェース806における表象805が中央位置807から右に動き、中央領域の右に配置された相互連動要素のアイコン809が強調表示される。
アイコン809の選択、及び強調表示は、マウスを重ね合わせるイベント、又はマウスダウンイベントを模倣したものであってもよい。これによって、アイコン809に関連づけられたアプリケーション(例えば、ウェブブラウザアプリケーションなど)が実行される。
第2の状態803における腕のわずかな下方向の動きなどの、ユーザ801の無関係な動きは、身体構造モデルを参照などにより、フィルタリングする、又は、無視することができる。] 図8
[0077] マウスコントロールモードでは、指の動きなどのさらなるジェスチャーが、マウスイベントにマッピングされる。
例えば、図9に示すように、ユーザ901が、マウスカーソルのコントロールをデスクトップに移動すると判断した場合、自身の手を相互連動要素に向けて振る代わりに、5本指の手のポーズ902を崩して、指し示す手のポーズ904として、マウスコントロールモードを呼び出してもよい。
マウスコントロールモードは、ユーザインタフェース906において矢印カーソル905を別の非マウスコントロールモードの表象に置き換える等、異なる表象に置き変えて可視化してもよい。] 図9
[0078] マウスコントロールモードでは、トラッキングシステムが、スクリーンから消える、又は使用不可となる(例えば、完全に消える、透過度を増す、又はグレーとなるなどによって)ようにコントロールに伝達し、ユーザが自身の手をディスプレイの周りに動かすと、ユーザの手及び/又は指の位置に基づいてマウスカーソルがトラックされたマウス位置に現れる。
図10に示すように、マウスコントロールモードがアクティブ化すると、ユーザ1001は、第1の位置1002から第2の位置1004に自身の腕と指差した手を左上に動かし、ユーザインタフェース1006における表象1005をデスクトップのアイコン1007の方向に移動させることができる。] 図10
[0079] 他の手のポーズ及びジェスチャーを用いて、マウス又はキーボードのイベントを模倣(emulate)してもよい。
例えば、図11に示すように、人差し指と親指を開いたジェスチャー1101は、マウスダウンイベントを模倣し、人差し指を開いて親指を下げたジェスチャー1102は、マウスアップイベントを模倣し、手を鋭く振り下ろすジェスチャー1104は、キャンセル又はエスケープイベント又はダブルクリックイベントを模倣し、親指のみを開いて指を結ぶジェスチャー1105は、シングルマウスイベントを模倣するようにしてもよい。] 図11
[0080] 別の例では、マウスダウンイベントを行うため、ユーザは、自身の人差し指の上に親指を開いて、古典的な「銃」のポーズを行うようにしてもよい。
マウスアップイベントを行うため、ユーザは、親指をその静止位置に下げるようにしてもよい。
右クリックイベントを行うため、ユーザは、自身の手を所定時間動かさずに「マウスダウン」ポーズを保持して右クリックメニューを呼び出すようにしてもよい。
マウスカーソルの位置は、マウスダウン、又は、マウスアップのジェスチャーを行う間に、ユーザが意図せずしてマウスカーソルの位置を動かしてしまうことを防止するため、フィルタリングしてもよい。
例えば、カーソルの位置は、マウスアップ又はマウスダウンイベントが実行されている間に、検出されたジェスチャーの開始時の位置に直ちに戻るようにしてもよい。]
[0081] 別の代表的なジェスチャーのセットでは、親指を下げるジェスチャー1102がマウスダウンイベントを模倣し、親指を挙げるジェスチャー1101がマウスアップイベントを模倣するようにしてもよい。
指を下に曲げることが、マウスダウンイベントを模倣し、指を真っ直ぐに伸ばすことが、マウスアップイベントを模倣するようにしてもよい。
右クリックは、異なる指、又は複数の指がかかわる類似のジェスチャーを用いて模倣してもよい。
「握る」動きで手の拳を固める場合、手を閉じることがマウスダウンイベントを模倣し、手を開くことがマウスアップイベントを模倣するようにしてもよい。
この代表的なジェスチャーのセットは、握り引っ張ることでドラッグを行われるので、直感的に行うことができ、指で差し示すこと、および手のサイズを変更することをせずとも、十分な精度を得ることができる。]
[0082] また、手の平を前に出して指を伸ばす手のポーズを代表的なエンゲージメントジェスチャーとして、指を差しながら親指が上げる手のポーズをマウスダウンジェスチャーとして説明したが、他の構成も可能である。
例えば、手の平を前に出して指を伸ばす手のポーズを、マウスダウンイベントを発生するために用いてもよく、手を閉じて握る動きがマウスダウンイベントを表し、手を開くことがマウスアップイベントを表すようにしてもよい。
これのようにして、使用される特定の手のジェスチャーを、合図した命令がユーザにとって自然であるように調整することができる。]
[0083] 図12に示すように、マウスドラッグイベントを行う場合、ユーザは、自身の手を「マウスダウン」ポーズに保持しながら、自身の手をトラッキング領域の周辺で動かし、それに応じてマウスを動かすようにしてもよい。
具体的には、ユーザ1201は、マウスダウンを表す指差すポーズを保持してデスクトップアイコン1205を掴みながら、自身の腕を第1の位置1202から第2の位置1204へと自身の左下に動かし、それをユーザインタフェース1206の中央に向けて動かす。
「マルチタッチ」のコントロール動作を行う場合、ユーザは第2の手をトラッキング領域に導き、親指の動きを利用して、この付加的に利用可能なトラッキング要素を使用して「クリック」を行うことができる。] 図12
[0084] 図3に戻ると、メディアセンターアプリケーションなどのアプリケーションが、コントロールとの相互連動に基づいて制御され(S306)、これによって、処理300が終了する(S307)。
さらに、アプリケーションの制御は、強調表示、又は、選択されたアイコンに関連づけられた候補アプリケーション、又は、移動若しくは再位置合わせされた表象に隣接した相互連動要素に関連づけられた候補アプリケーションを制御することをさらに含んでもよい。] 図3
[0085] ユーザが高機能化コントロールを使用不可にする、エンゲージメントを解除する、又は非アクティブ化することを意図することもあり得る。
1つのアプローチとして、エンゲージメントジェスチャーが再びアクティブ化されるまで、手のポーズ、又は手のポーズと合わせて手の動きを使用して、ジェスチャーコントロールをオフにするものがある。
図13において、例えば、ユーザ1301は自身の腕を、コントロールしている第1の位置1302から自身の胴1305に近い、脱力した、又は、リラックスした位置に下げる。
このような動きによって、コントロールがユーザインタフェース1306から消える。] 図13
[0086] 別のアプローチとして、ユーザの胴の物理的な存在を検出し、手と身体の両方がトラッキング領域の外に動く、又は、これらがカメラと、カメラから特定の距離を離れて画定された平面との間にもはや存在しない場合にコントロールを使用不可とするものがある。
図14に示すように、例えば、ユーザ1401は、カメラ1404の画角フレーム1402の外に動くことによってコントロールは使用不可となる。これによって、コントロールはユーザインタフェース1405から消える。] 図14
[0087] 1つの相互連動領域が「ディスエーブルコントロール(使用不可制御)」機能に関連づけられている場合、ユーザは、その使用不可用相互連動領域の方向に自身の手を振ることによってコントロールを明示的に使用不可とするようにしてもよい。
また、図15に示すように、ユーザ1501は、第2の手1502を第1の手1504の上で振る動きをするジェスチャー表現等の別のコントロールオブジェクトの動作によってコントロールを使用不可として、ユーザインタフェース1505をクリアするようにしてもよい。] 図15
[0088] コントロールを、ユーザの識別又は位置に基づいて、デバイス上で作動する他のアプリケーションに基づいて、ユーザインタフェース内の自由空間の量に基づいて、あるいは、その他の理由によって、動的に変更するようにしてもよい。
例えば、図16に示すように、ユーザが子のユーザ1601として識別される場合、コントロール1602は、より単調な形状であってもよく、子のユーザ1601に対して適切な(例えば、年齢的又は成長段階的に適切な)アイコン1604を有していてもよい。
同様に、ユーザが大人のユーザ1605として特定される場合、コントロール1606は、より複雑な形状であってもよく、制限がより少なくてもよく、又は、大人のユーザ1605に対して適切なアイコンや機能にさらにアクセスすることが付加的に可能になっていてもよい。] 図16
[0089] 図17は、認識されたジェスチャーを使用した高機能化入力を行うことを可能にする代表的な処理1701のフローチャートである。
処理1701が開始すると(1701)、ユーザの一又は複数の画像からエンゲージメントポーズが検出されたかどうかが判断する。
エンゲージメントポーズが認識されてないと判断された場合(S1702において)、処理1700はエンゲージメントポーズが認識されるまで待つ(S1702)。] 図17
[0090] エンゲージメントポーズが検出された場合(S1702において)、表象の位置合わせ処理が開始し(S1704)、エンゲージメントポーズがまだ検出されるかどうかということを再び判断される(S1705)。
エンゲージメントポーズがまだ検出されると判断された場合(S1705において)、表象が目標画像と位置合わせされているかどうかが判断される(1706)。]
[0091] 表象が目標画像と位置合わせされていると判断された場合(S1706において)、高機能化コントロールが表示され(S1707)、ジェスチャーがまだ検出されるかどうか判断される(S1709)。
ジェスチャーがまだ検出される場合(S1709)、エンゲージメントポーズがまだ存在するかどうか判断される(1710)。
エンゲージメントポーズがまだ存在する場合(S1710において)、手を振るジェスチャーが認識されるかどうかが判断される(S1711)。
手を振るジェスチャーが認識される場合(S1711において)、手を振ることに関連づけられた機能が、高機能化コントロールを介して呼び出され(S1712)、これによって、処理1700が終了する(S1714)。]
[0092] エンゲージメントポーズが認識されていないと判断された場合(S1705において)、表象に対する位置合わせ処理が終了し(S1715)、処理1700は、エンゲージメントポーズが認識されるまで待つ(S1702)。
表象が目標画像と位置合わせされていない場合(S1706)、エンゲージメントポーズが認識されるかどうか判断される(S1705)。
ジェスチャーがまだ検出されない場合(S1709)、高機能化コントロールが除去され(S1716)、処理1700は、エンゲージメントポーズが再び認識されるまで待つ(S1702)。]
[0093] エンゲージメントポーズが認識されない場合(S1710)、指差すジェスチャーが認識されたかどうかが判断され(S1710)、そのように判断されれば、マウスコントロールモードがアクティブ化し(S1719)、処理1700が終了する(S1715)。
指差すジェスチャーが認識されていない場合(S1717)、ジェスチャーがまだ検出されるかどうかが判断される(S1709)。
手を振るジェスチャーが認識される場合(S1711において)、ジェスチャーがまだ検出されるかどうかが判断される(S1709)。]
[0094] このように、ユーザは高機能化オンスクリーンコントロールと相互連動することが可能となり、これによって、メディアセンター機能が呼び出される。これは例えば、ユーザの画像にアクセスすることに基づいて、自動認識を行うことができる特定のジェスチャーを行うことによってなされる。
他の特徴としては、コントロールには最初にユーザの表象を包囲するアイコンが含まれる。これによって、直接的、直感的で自然なユーザの身体の動きを介して、関連づけられたアイコンの機能を容易に選択することができる。]
[0095] 図18は、プロセッサ及びユーザインタフェースをさらに備えたコンピューティングデバイス1801の外観の例を示す。
別の一般的な実装形態において、デバイスはユーザインタフェースとプロセッサを備える。
ユーザインタフェースは、中央領域に対して放射状に配置された相互連動要素を含んでいるコントロールの中央領域に、ユーザの表象を表示するように構成する。
プロセッサは、第1及び第2の画像からユーザのジェスチャーを認識されたユーザのジェスチャーに基づいてコントロールと相互連動し、コントロールとの相互連動に基づいてアプリケーションを制御するように構成する。] 図18
[0096] より詳細には、コンピューティングデバイス1801のハードウェア環境は、ユーザとのインタフェースのためにテキスト及び画像を表示するディスプレイモニター1808と、コンピューティングデバイス1801にテキストデータユーザコマンドを入力するキーボード1809と、ディスプレイモニター1808上に表示されたオブジェクトをポイント、選択、操作するマウス1810と、固定ディスクドライブ1811と、取り外し可能なディスクドライブ1812と、テープドライブ1814と、ハードコピー出力デバイスと、コンピュータネットワーク接続と、及びデジタル入力デバイス1817とを備える。]
[0097] ディスプレイモニター1808は、コンピューティングデバイス1801によって使用されるソフトウェアアプリケーションと、さらにコンピューティングデバイス1801を動作させるために必要なオペレーティングシステムプログラムとのためのユーザインタフェースを作り上げるグラフィックス、画像及びテキストを表示する。
ユーザは、コンピュータのオペレーティングシステムプログラムと、さらにアプリケーションプログラムを動作させ制御する命令やデータを入力するキーボード1809を使用する。

マウス1810は、いずれの種類のポインティングデバイスであってもよく、ジョイスティック、トラックボール、タッチパッド、又は他のポインティングデバイスであってもよい。
ユーザインタフェースを表示し、テキストや数字をユーザが入力したり選択することを可能にし、あるいはメニューの選択肢を選択することを可能にするように使用されるソフトウェアが、固定ディスクドライブ1811のようなコンピュータの読み取り可能なメモリーメディア上にローカルに記憶される。]
[0098] 別の実装形態において、固定ディスクドライブ1811はそれ自身、独立ディスク冗長アレー(RAID)のような物理的なドライブユニットを多く有していてもよく、ディスクドライブファーム(farm)であってもよく、又は別の離れたコンピューティングユニットに物理的に位置するディスクアレーであってもよい。
このようなコンピュータ読み取り可能なメモリーメディアによって、コンピューティングデバイス1801が、取り外し可能及び取り外し不能なメモリーメディアに記憶されたコンピュータが実行可能な処理ステップ、アプリケーションプログラム等にアクセスすることを可能にする。]
[0099] コンピュータネットワーク接続は、モデム接続、イー座ネットを含むローカルエリアネットワーク(LAN)接続、又はデジタル加入者回線(DSL)、ケーブル高速インターネット接続、ブロードバンドオバーパワーライン接続、ダイアルアップ接続、Tー1ライン、T−3ライン、光ファイバー接続、又は衛星接続のようなワイドエリアネットワーク(WAN)接続であってもよい。
ネットワーク1306は、LANネットワーク、企業内又は政府内WANネットワーク、インターネット又は他のネットワークでもよい。]
[0100] コンピュータネットワーク接続は、有線ライン又は無線のコネクターであってもよい。
無線コネクターの例としては、例えば、INFRAREDDATA ASSOCIATION(登録商標)(IrDA(登録商標))無線コネクター、光無線コネクター、INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS(登録商標)(IEEE(登録商標))標準802.11無線コネクター、BLUETOOTH(登録商標)無線コネクター、直交周波数分割多重(OFDM)ウルトラワイドバンド(UWB)無線コネクター、時変調ウルトラワイドバンド(TM−UWB)無線コネクター、又は他の無線コネクターが含まれる。有線コネクターの例としては、例えば、IEEE(登録商標)−1394 FIREWIRE(登録商標)コネクター、ユニバーサルシリアルバス(USB)コネクター、シリアルポートコネクター、パラレルポートコネクター、又は他の有線コネクターが含まれる。]
[0101] 取り外し可能なディスクドライブ1812は、コンピューティングデバイス1801からデータを書き出す、あるいはコンピューティングデバイス1801にデータをロードするのに用いられる取り外し可能なストレージデバイスである。
取り外し可能なディスクドライブ1812には、フロッピーディスクドライブ(登録商標)、IOMEGA(登録商標) ZIP(登録商標)ドライブ、コンパクトディスクーリードオンリーメモリー(CD−ROM)ドライブ、CD−レコーダブルドライブ(CD−R)、CD−リライタブルドライブ(CD−RW)、フラッシュメモリー、USBフラッシュドライブ、サム(thumb)ドライブ、ペンドライブ、キードライブ、高密度デジタル多用途ディスク(HD−DVD)光ディスクドライブ、BluーRay光ディスクドライブ、ホログラフィックデジタルデータストレージ(HDDS)光ディスクドライブ、あるいはDVD−レコーダブル(「DVD−R」又は「DVD+R」)、DVD−リライダブル(「DVD−RW」又は「DVD+RW」)、又はDVD−RAMのような多様な記録可能又は再び書き込み可能なデジタル多用途ディスク(DVD)ドライブのいずれであってもよい。
オペレーティングシステムプログラム、アプリケーション、及び多様なデータファイルが、固定ディスクドライブ1811、又は取り外し可能なディスクドライブ1812のための取り外し可能なメディアに記憶されたディスクに記憶される。]
[0102] テープドライブ1814は、コンピューティングデバイス1801からデータを書き出す、あるいはコンピューティングデバイス1801にデータをロードするために用いられるテープストレージデバイスである。テープドライブ1814は、1/4インチカートリッジ(QIC)、4mmデジタルオーディオテープ(DAT)、8mmデジタルリニアテープ(DLT)のドライブ、又は他の種類のテープのものであってもよい。]
[0103] また、コンピューティングデバイス1801をデスクトップPCであるものとして上で説明したが、別の実装形態において、コンピューティングデバイス1801は、ラップトップ、ワークステーション、ミッドレンジコンピュータ、メインフレーム、エンベデッドシステム、電話器、ハンドヘルド又はタブレットコンピュータ、PDA、ゲームデバイス又はコンソール、デジタル写真フレーム、遠隔会議デバイス、又は他の種類のコンピュータであってもよい。]
[0104] 図19は、図18に示したコンピュータの内部アーキテクチャーを示すブロック図である。以下においてコンピューティングデバイス1801の例示的な内部アーキテクチャーを説明する。コンピューティング環境は、オペレーティングシステム又はアプリケーションを構成するコンピュータ命令が処理されるコンピュータの中央演算装置(CPU)1901と、ディスプレイモニター1808上にグラフィックス、画像、及びテキストをレンダリングするようにコミュニケーションインタフェース及び処理機能を提供するディスプレイインタフェース1902と、キーボード1809に対してコミュニケーションインタフェースを提供するキーボードインタフェース1904と、マウス1810又は同等なポインティングデバイスにコミュニケーションインタフェースを提供するポインティングデバイスインタフェース1905と、デジタル入力デバイス1817にコミュニケーションインタフェースを提供するデジタル入力インタフェース1906と、ハードコピー出力デバイスにコミュニケーションインタフェースを提供するハードコピー出力デバイスインタフェースと、コンピュータのCPU1901によって処理されるために、コンピュータの命令及びデータが揮発性メモリーデバイスに記憶されるランダムアクセスメモリー(RAM)1910と、基本入出力(I/O)、起動、又はキーボード1809からのキーストロークの受け入れのような基本的なシステム機能のための不可変な低レベルシステムコード又はシステムデータが不揮発性メモリーデバイスに記憶されるリードオンリーメモリー(ROM)1911と、オペレーティングシステム1921、アプリケーションプログラム1922(必要に応じて高機能化コントロールのアプリケーション1923、及び他のアプリケーション1924を含む)及びデータファイル1925を構成するファイルが記憶されるストレージ1920又は他の適切な種類のメモリー(例、ランダムアクセスメモリー(RAM)、リードオンリーメモリー(ROM)、プログラマブルリードオンリーメモリー(PROM)、消去可能プログラマブルリードオンリーメモリー(EPROM)、電気的に消去可能なプログラマブルリードオンリーメモリー(EEPROM)、磁気ディスク、光学的ディスク、フロッピーディスク(登録商標)、ハードディスク、取り外し可能なカートリッジ、フラッシュドライブ)と、並びに、コンピュータネットワーク接続を介してネットワークにコミュニケーションインタフェースを提供するコンピュータネットワークインタフェースを含んでいる。これらの構成デバイスとコンピュータのCPU1901がコンピュータバス1927を介してお互いにやりとりをする。] 図18 図19
[0105] 一般的な実装形態の1つにおいて、コンピュータプログラム製品が、ストレージ1920のような、機械によって読み取り可能な媒体に有体的に具現化される、又は記録される。
コンピュータプログラム製品は、機械によって読み取られて、第1及び第2の画像からユーザのジェスチャーを認識し、中央領域に対して放射状に配置された相互連動要素を含んでいるコントロールの中央領域にユーザの表象を表示し、認識されたユーザのジェスチャーに基づいてコントロールと相互連動し、コントロールとの相互連動に基づいてアプリケーションを制御することをデータ処理装置に行わせる命令を含んでいる。]
[0106] RAM1910は、コンピュータバス1927とインタフェースし、オペレーティングシステム、アプリケーションプログラム、及びデバイスドライバのようなソフトウェアプログラムの実行時にコンピュータのCPU1901に対して速いRAMストレージを提供する。より具体的には、コンピュータのCPU1901は、ソフトウェアプログラムを実行するため、固定ディスクドライブ1811又は他のメモリーメディアからRAM1910のフィールドへと、コンピュータが実行可能な処理ステップをロードする。データがRAM1910において記憶され、ここでデータが実行時にコンピュータのCPU1901によってアクセスされる。]
[0107] コンピューティングデバイス1801は、オペレーティングシステム1921、ワードプロセッシング、スプレッドシート、プレゼンテーション、ゲーム、又は他のアプリケーションのようなアプリケーションプログラム1922に対するコンピュータが実行可能なコードを記憶する。上記の実装形態を使用して、ユーザインタフェースを高機能化コントロールに出力し、テキストや数字をユーザが入力することを可能にし、あるいはコントロールから選択することは可能だが、本開示に従う機能を、ダイナミックリンクライブラリ(DLL)、又はMICROSOFT(登録商標)Internet Explorerウェブブラウザのようなインタネットウェブブラウザ等の他のアプリケーションプログラムに対するプラグインとして実装することも可能である。]
[0108] コンピュータのCPU1901は、INTEL(登録商標)又はAMD(登録商標)プロセッサ、POWERPC(登録商標)プロセッサ、MIPS(登録商標)縮小命令セットコンピュータ(RISC)プロセッサ、SPARC(登録商標)プロセッサ、ACORN(登録商標)RISC Machine(ARM(登録商標))アーキテクチャープロセッサ、HP ALPHASERVER(登録商標)又はメインフレーム用のプロプライエタリーなコンピュータプロセッサを含む多くのハイパフォーマンスコンピュータプロセッサのいずれかである。別の構成形態において、コンピュータのCPU1901は、ハイパフォーマンスワークステーション及びサーバにおいて使用される複数のCPU構成、又はメインフレームで使用される複数のスケーラブルプロセッシングユニットを含む、複数のプロセッシングユニットである。]
[0109] オペレーティングシステム1921は、MICROSOFT(登録商標) WINDOWSNT(登録商標)/WINDOWS(登録商標) 2000/WINDOWS(登録商標) XP Workstation; WINDOWS NT(登録商標)/WINDOWS(登録商標)2000/WINDOWS(登録商標) XP Server;IBM(登録商標)のワークステーション及びサーバ用のAIX(登録商標)、SUN(登録商標)のワークステーション及びサーバ用のSUNOS(登録商標)、INTEL(登録商標)CPUベースのワークステーション及びサーバ用のLINUX(登録商標)、HP(登録商標)のワークステーション及びサーバ用のHP UX WORKLOADMANAGER(登録商標)、SGI(登録商標)のワークステーション及びサーバ用のIRIX(登録商標)、Digital Equipment Corporation製コンピュータ用のVAX/VMS、HP ALPHASERVER(登録商標)ベースのコンピュータ用のOPENVMS(登録商標)、POWERPC(登録商標)のベースのワークステーション及びサーバ用のMAC OS(登録商標) X、モバイルデバイス用のSYMBIAN OS(登録商標)、WINDOWS MOBILE(登録商標)若しくはWINDOWS CE(登録商標)、PALM(登録商標)、NOKIA(登録商標) OS(NOS)、OSE(登録商標)、又はEPOC(登録商標)、あるいはコンピュータ若しくはエンベデッドシステム用のプロプライアタリーなオペレーションシステムであってもよい。オペレーティングシステム1921のためのアプリケーション開発プラットフォーム又はフレームワークは、BINARY RUNTIME ENVIRONMENT FOR WIRELESS(登録商標)(BREW(登録商標))、若しくはJava(登録商標) Platform, Micro Edition(Java ME(登録商標))又はJava(登録商標) 2 Platform, Micro Edition(J2ME(登録商標))、PYTHON(商標)、FLASH LITE(登録商標)、又はMICROSOFT(登録商標) .NET Compactであってもよい。]
[0110] 図18及び19は、ユーザがテキスト、数字を直感的かつ容易に入力させたり、あるいは複数のアイテムから選択させたりすることを可能にする高機能化コントロールを提供されるように構成された、プログラムコード又はプログラム若しくは処理のステップを実行するコンピューティングデバイスの可能性のある実装形態の1つを示したものだが、他の種類のコンピュータ又は実装形態も用いてもよい。] 図18
[0111] 上において幾つかの実装形態について説明した。しかし、本開示の精神及び範囲を離れずに多様な変更を行うことができるものと理解されるものである。したがって、他の実装形態も請求の範囲に含まれる。]
权利要求:

請求項1
コンピュータによって実施される方法であって、第1及び第2の画像からユーザのジェスチャーを認識するステップと、中央領域に対して放射状に配置された相互連動要素をさらに含むコントロールの中央領域にユーザの表象を表示するステップと、認識されたユーザのジェスチャーに基づいて前記コントロールと相互連動するステップと、前記コントロールとの相互連動に基づいてアプリケーションを制御するステップと、を含む方法。
請求項2
前記ユーザのジェスチャーは、単一又は複数の指ジェスチャー、単一の手ジェスチャー、単一の手及び腕のジェスチャー、単一の手、腕及び体のジェスチャー、両手を使うジェスチャー、頭のポーズや姿勢の変化、目の位置の変化、顔の表情の変化、又は体のポーズ又は姿勢の変化を含む、請求項1記載の方法。
請求項3
前記ユーザの表象は、カーソル、画像、アイコン、又はアバターである、請求項1記載の方法。
請求項4
前記コントロールは、四角形形状、円形形状、扇形形状を含む、請求項1記載の方法。
請求項5
各相互連動要素は、候補アプリケーションに関連づけられたアイコンをさらに含み、前記コントロールとの相互連動するステップは、前記認識されたユーザのジェスチャーに関連づけられたアイコンを強調表示するステップをさらに含み、前記アプリケーションを制御するステップは、強調表示されたアイコンに関連づけられた候補アプリケーションを制御するステップをさらに含む、請求項1記載の方法。
請求項6
ユーザのジェスチャーは、2次元又は3次元の位置の変位、又は、位置の変位を伴わない変化を含む、請求項1記載の方法。
請求項7
前記ユーザのジェスチャーを認識するステップは、ユーザのジェスチャーの大きさ及び方向を判断するステップをさらに含み、前記コントロールとの相互連動するステップは、判断された大きさ及び方向に基づいて表象を移動するステップをさらに含み、前記アプリケーションを制御するステップは、移動された表象の近傍の相互連動要素に関連づけられた、選択されたアプリケーションを制御するステップをさらに含む、請求項1記載の方法。
請求項8
前記ユーザのジェスチャーは、イネーブリングジェスチャーを含み、前記コントロールは、前記イネーブリングジェスチャーの認識に基づいて表示される、請求項1記載の方法。
請求項9
前記中央領域にユーザの表象を表示するステップは、前記中央領域の外側にユーザの表象を表示するステップと、前記中央領域に目標画像を表示するステップと、少なくとも第3の画像から、再位置合わせジェスチャーを認識するステップと、前記再位置合わせジェスチャーに基づいて、前記目標画像に対して前記表象を移動し、移動された表象が前記目標画像と位置合わせされている場合は、前記中央領域に移動された前記表象を表示するステップと、をさらに含む、請求項1記載の方法。
請求項10
前記コントロールは、前記中央領域に対して放射状に配置された少なくとも8つの相互連動要素をさらに含む、請求項1記載の方法。
請求項11
前記ユーザのジェスチャーを認識するステップが、第1の方向に第1の変位を認識するステップと、第2の方向に第2の変位を認識するステップと、をさらに含む、請求項1記載の方法。
請求項12
前記コントロールと相互連動するステップは、前記コントロールを非アクティブにするステップをさらに含む、請求項1記載の方法。
請求項13
前記コントロールと相互連動するステップは、マウスコントロールモードをアクティブにするステップをさらに含む、請求項1記載の方法。
請求項14
前記マウスコントロールモードでは、さらなるジェスチャーはマウスイベントにマッピングされている、請求項13記載の方法。
請求項15
前記さらなるジェスチャーは、指の動きをさらに含む、請求項14記載の方法。
請求項16
ユーザの識別を認識するステップと、認識された識別に基づいて相互連動要素を選択するステップと、をさらに含む、請求項1記載の方法。
請求項17
前記ユーザのジェスチャーは、カメラの前方の所定の距離に画定された平面の前で検出された場合に、認識される、請求項1記載の方法。
請求項18
前記アプリケーションを制御するステップは、メディアセンターと相互連動するステップをさらに含む、請求項1記載の方法。
請求項19
機械によって読み取り可能な媒体において有形に具現化されたコンピュータプログラム製品であって、当該コンピュータプログラム製品は、機械によって読み込まれると、第1及び第2の画像からユーザのジェスチャーを認識するステップと、中央領域に対して放射状に配置された相互連動要素をさらに含むコントロールの中央領域にユーザの表象を表示するステップと、認識されたユーザのジェスチャーに基づいて前記コントロールと相互連動するステップと、前記コントロールとの相互連動に基づいてアプリケーションを制御するステップと、を実行させる命令を含む、コンピュータプログラム製品。
請求項20
中央領域に対して放射状に配置された相互連動要素をさらに含むコントロールの中央領域にユーザの表象を表示するように構成されたユーザインタフェースと、第1及び第2の画像からユーザのジェスチャーを認識し、認識されたユーザのジェスチャーに基づいて前記コントロールと相互連動し、前記コントロールとの相互連動に基づいてアプリケーションを制御するように構成されたプロセッサと、を含むデバイス。
类似技术:
公开号 | 公开日 | 专利标题
US10739862B2|2020-08-11|Free-space user interface and control using virtual constructs
JP6499346B2|2019-04-10|Device and method for navigating between user interfaces
US10761612B2|2020-09-01|Gesture recognition techniques
US10579155B2|2020-03-03|User-defined virtual interaction space and manipulation of virtual cameras with vectors
US10503395B2|2019-12-10|Multi-touch object inertia simulation
US10254956B2|2019-04-09|Devices, methods, and graphical user interfaces for messaging
US10564799B2|2020-02-18|Dynamic user interactions for display control and identifying dominant gestures
US10031578B2|2018-07-24|Gaze detection in a 3D mapping environment
US10719214B2|2020-07-21|Enhanced 3D interfacing for remote devices
JP6660309B2|2020-03-11|Sensor correlation for pen and touch-sensitive computing device interaction
US9696795B2|2017-07-04|Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
JP5745141B2|2015-07-08|光学式指ジェスチャユーザインタフェース
US9665259B2|2017-05-30|Interactive digital displays
US10671172B2|2020-06-02|Dynamic user interactions for display control
US20180059928A1|2018-03-01|Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US20190155394A1|2019-05-23|Dynamic, Free-Space User Interactions for Machine Control
US20160306435A1|2016-10-20|Gesture based interface system and method
US20180307321A1|2018-10-25|Build Status of a Buildable Product
US9377863B2|2016-06-28|Gaze-enhanced virtual touchscreen
US20160077721A1|2016-03-17|Input Device User Interface Enhancements
CN107077288B|2020-07-07|键盘输入的消歧
Hinckley et al.2016|Pre-touch sensing for mobile interaction
Lü et al.2012|Gesture coder: a tool for programming multi-touch gestures by demonstration
US9383895B1|2016-07-05|Methods and systems for interactively producing shapes in three-dimensional space
US9740297B2|2017-08-22|Motion-based character selection
同族专利:
公开号 | 公开日
JP5595935B2|2014-09-24|
WO2009108894A9|2009-11-19|
US9507432B2|2016-11-29|
US10025390B2|2018-07-17|
WO2009108894A1|2009-09-03|
US20180275767A1|2018-09-27|
US20170038852A1|2017-02-09|
US9164591B2|2015-10-20|
US20160077594A1|2016-03-17|
US20140040835A1|2014-02-06|
US20090217211A1|2009-08-27|
US8555207B2|2013-10-08|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题
JP2001306243A|2000-04-21|2001-11-02|Sony Corp|情報処理装置、認識可能動作通知方法及びプログラム格納媒体|
JP2003084229A|2001-09-14|2003-03-19|Takenaka Komuten Co Ltd|指示位置表示装置及び方法|
WO2003025589A1|2001-09-14|2003-03-27|Advantest Corporation|Structure de contact, procede de fabrication de cette structure et ensemble de contact utilisant cette structure|
JP2003233452A|2002-02-13|2003-08-22|Ricoh Co Ltd|ジェスチャコマンド入力装置|
JP2005196530A|2004-01-08|2005-07-21|Alpine Electronics Inc|空間入力装置及び空間入力方法|
JP2007538318A|2004-05-14|2007-12-27|オハイオステートユニバーシティリサーチファウンデーション|サインに基づく人間−機械相互作用|
JP2006174291A|2004-12-17|2006-06-29|Sony Corp|情報処理装置及び情報処理方法|
WO2007116662A1|2006-03-27|2007-10-18|Pioneer Corporation|電子装置及びその操作方法|JP2012108762A|2010-11-18|2012-06-07|Sharp Corp|指示システム、及び、マウスシステム|
JP2012256098A|2011-06-07|2012-12-27|Sony Corp|画像処理装置および方法、並びにプログラム|
JP2013030057A|2011-07-29|2013-02-07|Fujitsu Ltd|文字入力装置,文字入力プログラムおよび文字入力方法|
WO2013055137A1|2011-10-14|2013-04-18|삼성전자주식회사|이벤트 기반 비전 센서를 이용한 동작 인식 장치 및 방법|
JP2013140578A|2011-12-30|2013-07-18|Samsung Electronics Co Ltd|電子装置及びその制御方法|
JP2013196482A|2012-03-21|2013-09-30|Casio Comput Co Ltd|Input user interface device, projection device, program, and command determination method|
JP2013200654A|2012-03-23|2013-10-03|Yahoo Japan Corp|表示制御装置、表示制御方法、情報表示システム及びプログラム|
JP2014081788A|2012-10-16|2014-05-08|Canon Inc|ハンドジェスチャ認識装置及びその制御方法|
JP2014137667A|2013-01-16|2014-07-28|Mitsubishi Electric Corp|制御装置及び制御方法|
JP2014520339A|2011-06-21|2014-08-21|クアルコム,インコーポレイテッド|コンピュータビジョンの応用例で対話の範囲を拡大するジェスチャ制御による技術|
JP2015146058A|2014-01-31|2015-08-13|富士通株式会社|情報処理装置、情報処理方法および情報処理プログラム|
JP5836494B2|2012-09-13|2015-12-24|株式会社Nttドコモ|User interface device, search method and program|
JP2016505188A|2013-02-05|2016-02-18|クアルコム,インコーポレイテッド|Method for system engagement by 3D object detection|
JP2016512357A|2013-03-15|2016-04-25|クアルコム,インコーポレイテッド|バックグラウンドタスク用の対話式入力|
US9377851B2|2012-03-29|2016-06-28|Sony Corporation|Information processing apparatus, information processing method, and computer program|
JPWO2016051521A1|2014-09-30|2017-04-27|三菱電機エンジニアリング株式会社|画面操作装置及び画面操作方法|
JP2018077876A|2013-04-02|2018-05-17|ソニー株式会社|情報処理装置、情報処理方法、及びプログラム|
JP2018524654A|2015-06-10|2018-08-30|アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited|活動検出方法及びデバイス、並びに本人認証方法及びデバイス|
US10642569B2|2016-07-26|2020-05-05|Beijing Xiaomi Mobile Software Co., Ltd.|Methods and devices for identifying object in virtual reality communication, and virtual reality equipment|US5293870A|1989-11-17|1994-03-15|Board Of Regents The University Of Texas System|Method and apparatus for elastographic measurement and imaging|
US5107837A|1989-11-17|1992-04-28|Board Of Regents, University Of Texas|Method and apparatus for measurement and imaging of tissue compressibility or compliance|
JPH08332170A|1995-06-08|1996-12-17|Matsushita Electric Ind Co Ltd|ビデオスコープ|
US5810731A|1995-11-13|1998-09-22|Artann Laboratories|Method and apparatus for elasticity imaging using remotely induced shear wave|
US6819783B2|1996-09-04|2004-11-16|Centerframe, Llc|Obtaining person-specific images in a public venue|
US6144366A|1996-10-18|2000-11-07|Kabushiki Kaisha Toshiba|Method and apparatus for generating information input using reflected light image of target object|
KR19990011180A|1997-07-22|1999-02-18|구자홍|화상인식을 이용한 메뉴 선택 방법|
US9292111B2|1998-01-26|2016-03-22|Apple Inc.|Gesturing with a multipoint sensing device|
DE19839638C2|1998-08-31|2000-06-21|Siemens Ag|System for enabling self-control of the body movement sequences to be carried out by the moving person|
FR2791136B1|1999-03-15|2001-06-08|Mathias Fink|Procede et dispositif d'imagerie utilisant les ondes de cisaillement|
US6371912B1|2000-04-05|2002-04-16|Duke University|Method and apparatus for the identification and characterization of regions of altered stiffness|
EP1148411A3|2000-04-21|2005-09-14|Sony Corporation|Information processing apparatus and method for recognising user gesture|
US7227526B2|2000-07-24|2007-06-05|Gesturetek, Inc.|Video-based image control system|
US8487872B2|2000-11-14|2013-07-16|Blue Orb, Inc.|Apparatus and method for generating data signals|
US6827579B2|2000-11-16|2004-12-07|Rutgers, The State University Of Nj|Method and apparatus for rehabilitation of neuromotor disorders|
US6558324B1|2000-11-22|2003-05-06|Siemens Medical Solutions, Inc., Usa|System and method for strain image display|
US6508768B1|2000-11-22|2003-01-21|University Of Kansas Medical Center|Ultrasonic elasticity imaging|
WO2003025859A1|2001-09-17|2003-03-27|National Institute Of Advanced Industrial Science And Technology|Interface apparatus|
FR2844058B1|2002-09-02|2004-11-12|Centre Nat Rech Scient|Procede et dispositif d'imagerie utilisant des ondes de cisaillement|
US7713201B2|2003-04-09|2010-05-11|Mayo Foundation For Medical Education|Method and apparatus for shear property characterization from resonance induced by oscillatory radiation force|
US7233316B2|2003-05-01|2007-06-19|Thomson Licensing|Multimedia user interface|
US7301529B2|2004-03-23|2007-11-27|Fujitsu Limited|Context dependent gesture response|
US20050239028A1|2004-04-03|2005-10-27|Wu Chang J R|Stance guide and method of use|
US7519223B2|2004-06-28|2009-04-14|Microsoft Corporation|Recognizing gestures and using gestures for interacting with software applications|
JP2006130221A|2004-11-09|2006-05-25|Konica Minolta Medical & Graphic Inc|MEDICAL IMAGE TRANSFER DEVICE, PROGRAM, AND STORAGE MEDIUM|
US20060164396A1|2005-01-27|2006-07-27|Microsoft Corporation|Synthesizing mouse events from input device events|
US20070057912A1|2005-09-14|2007-03-15|Romriell Joseph N|Method and system for controlling an interface of a device through motion gestures|
US8589824B2|2006-07-13|2013-11-19|Northrop Grumman Systems Corporation|Gesture recognition interface system|
KR100783552B1|2006-10-11|2007-12-07|삼성전자주식회사|휴대 단말기의 입력 제어 방법 및 장치|
JP2008146243A|2006-12-07|2008-06-26|Toshiba Corp|情報処理装置、情報処理方法、及びプログラム|
US8555207B2|2008-02-27|2013-10-08|Qualcomm Incorporated|Enhanced input using recognized gestures|
US20100235786A1|2009-03-13|2010-09-16|Primesense Ltd.|Enhanced 3d interfacing for remote devices|AU6283501A|2000-05-24|2001-12-03|Phplate Stockholm Ab|New method and device|
US20020182237A1|2001-03-22|2002-12-05|The Procter & Gamble Company|Skin care compositions containing a sugar amine|
US20040175347A1|2003-03-04|2004-09-09|The Procter & Gamble Company|Regulation of mammalian keratinous tissue using hexamidine compositions|
US8018440B2|2005-12-30|2011-09-13|Microsoft Corporation|Unintentional touch rejection|
US9311528B2|2007-01-03|2016-04-12|Apple Inc.|Gesture learning|
US20070177804A1|2006-01-30|2007-08-02|Apple Computer, Inc.|Multi-touch gesture dictionary|
CN100475189C|2006-10-17|2009-04-08|王海龙|一种化妆品组合物及其制备方法和应用|
US8413075B2|2008-01-04|2013-04-02|Apple Inc.|Gesture movies|
US8555207B2|2008-02-27|2013-10-08|Qualcomm Incorporated|Enhanced input using recognized gestures|
US10460085B2|2008-03-13|2019-10-29|Mattel, Inc.|Tablet computer|
US20100211899A1|2009-02-17|2010-08-19|Robb Fujioka|Virtual Marketplace Accessible To Widgetized Avatars|
JP5628144B2|2008-03-18|2014-11-19|エリプティック・ラボラトリーズ・アクシェルスカブElliptic Laboratories As|Object and motion detection|
US20110102570A1|2008-04-14|2011-05-05|Saar Wilf|Vision based pointing device emulation|
US20090305785A1|2008-06-06|2009-12-10|Microsoft Corporation|Gesture controlled game screen navigation|
CN101626631A|2008-07-08|2010-01-13|深圳富泰宏精密工业有限公司|利用影像调用功能的系统及方法|
US8150102B2|2008-08-27|2012-04-03|Samsung Electronics Co., Ltd.|System and method for interacting with a media device using faces and palms of video display viewers|
US20100064213A1|2008-09-10|2010-03-11|Zhou Ye|Operation device for a graphical user interface|
KR20100041006A|2008-10-13|2010-04-22|엘지전자 주식회사|3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법|
US9383814B1|2008-11-12|2016-07-05|David G. Capper|Plug and play wireless video game|
US9586135B1|2008-11-12|2017-03-07|David G. Capper|Video motion capture for wireless gaming|
US10086262B1|2008-11-12|2018-10-02|David G. Capper|Video motion capture for wireless gaming|
US20100138797A1|2008-12-01|2010-06-03|Sony Ericsson Mobile Communications Ab|Portable electronic device with split vision content sharing control and method|
FR2941232B1|2009-01-16|2014-08-08|Sederma Sa|NOVEL PEPTIDES, COMPOSITIONS COMPRISING THEM AND COSMETIC AND DERMO-PHARMACEUTICAL USES|
FR2941231B1|2009-01-16|2016-04-01|Sederma Sa|NOVEL PEPTIDES, COMPOSITIONS COMPRISING THEM AND COSMETIC AND DERMO-PHARMACEUTICAL USES|
US9652030B2|2009-01-30|2017-05-16|Microsoft Technology Licensing, Llc|Navigation of a virtual plane using a zone of restriction for canceling noise|
JP5256109B2|2009-04-23|2013-08-07|株式会社日立製作所|表示装置|
US9498718B2|2009-05-01|2016-11-22|Microsoft Technology Licensing, Llc|Altering a view perspective within a display environment|
US20100287513A1|2009-05-05|2010-11-11|Microsoft Corporation|Multi-device gesture interactivity|
US20100289912A1|2009-05-14|2010-11-18|Sony Ericsson Mobile Communications Ab|Camera arrangement with image modification|
US20120105217A1|2010-03-12|2012-05-03|Pixart Imaging Inc.|Remote device and remote control system|
US20100295782A1|2009-05-21|2010-11-25|Yehuda Binder|System and method for control based on face ore hand gesture detection|
US20100302357A1|2009-05-26|2010-12-02|Che-Hao Hsu|Gesture-based remote control system|
US9383823B2|2009-05-29|2016-07-05|Microsoft Technology Licensing, Llc|Combining gestures beyond skeletal|
US8856691B2|2009-05-29|2014-10-07|Microsoft Corporation|Gesture tool|
US20100306685A1|2009-05-29|2010-12-02|Microsoft Corporation|User movement feedback via on-screen avatars|
TWI484380B|2009-07-31|2015-05-11|Mstar Semiconductor Inc|觸控點位移量判斷方法與判斷裝置|
JP5614014B2|2009-09-04|2014-10-29|ソニー株式会社|情報処理装置、表示制御方法及び表示制御プログラム|
KR101622197B1|2009-09-23|2016-05-19|삼성전자주식회사|휴대용 단말기에서 제스처를 인식하기 위한 장치 및 방법|
US8305188B2|2009-10-07|2012-11-06|Samsung Electronics Co., Ltd.|System and method for logging in multiple users to a consumer electronics device by detecting gestures with a sensory device|
GB2483168B|2009-10-13|2013-06-12|Pointgrab Ltd|Computer vision gesture based control of a device|
US9424444B2|2009-10-14|2016-08-23|At&T Mobility Ii Llc|Systems, apparatus, methods and computer-readable storage media for facilitating integrated messaging, contacts and social media for a selected entity|
US8924893B2|2009-10-14|2014-12-30|At&T Mobility Ii Llc|Locking and unlocking of an electronic device using a sloped lock track|
NL2003662C2|2009-10-16|2011-04-19|Sara Lee De Nv|Werkwijze, controle-eenheid voor een apparaat en apparaat voorzien van een controle-eenheid.|
EP2494432B1|2009-10-27|2019-05-29|Harmonix Music Systems, Inc.|Gesture-based user interface|
US9981193B2|2009-10-27|2018-05-29|Harmonix Music Systems, Inc.|Movement based recognition and evaluation|
US8843857B2|2009-11-19|2014-09-23|Microsoft Corporation|Distance scalable no touch computing|
US8621380B2|2010-01-06|2013-12-31|Apple Inc.|Apparatus and method for conditionally enabling or disabling soft buttons|
US9268404B2|2010-01-08|2016-02-23|Microsoft Technology Licensing, Llc|Application gesture interpretation|
US9019201B2|2010-01-08|2015-04-28|Microsoft Technology Licensing, Llc|Evolving universal gesture sets|
TWI471755B|2010-01-13|2015-02-01|Chao Lieh Chen|能操控電氣設備作動模式的操控裝置|
KR20110084653A|2010-01-18|2011-07-26|삼성전자주식회사|휴대단말에서 프라이버시 보호 방법 및 장치|
US8261213B2|2010-01-28|2012-09-04|Microsoft Corporation|Brush, carbon-copy, and fill gestures|
US9411504B2|2010-01-28|2016-08-09|Microsoft Technology Licensing, Llc|Copy and staple gestures|
US9519356B2|2010-02-04|2016-12-13|Microsoft Technology Licensing, Llc|Link gestures|
US9367205B2|2010-02-19|2016-06-14|Microsoft Technolgoy Licensing, Llc|Radial menus with bezel gestures|
US9965165B2|2010-02-19|2018-05-08|Microsoft Technology Licensing, Llc|Multi-finger gestures|
US8799827B2|2010-02-19|2014-08-05|Microsoft Corporation|Page manipulations using on and off-screen gestures|
US9310994B2|2010-02-19|2016-04-12|Microsoft Technology Licensing, Llc|Use of bezel as an input mechanism|
US9274682B2|2010-02-19|2016-03-01|Microsoft Technology Licensing, Llc|Off-screen gestures to create on-screen input|
US9075522B2|2010-02-25|2015-07-07|Microsoft Technology Licensing, Llc|Multi-screen bookmark hold gesture|
US9454304B2|2010-02-25|2016-09-27|Microsoft Technology Licensing, Llc|Multi-screen dual tap gesture|
US8751970B2|2010-02-25|2014-06-10|Microsoft Corporation|Multi-screen synchronous slide gesture|
JP5087101B2|2010-03-31|2012-11-28|株式会社バンダイナムコゲームス|プログラム、情報記憶媒体及び画像生成システム|
US8719730B2|2010-04-23|2014-05-06|Ganz|Radial user interface and system for a virtual world game|
US8878821B2|2010-04-29|2014-11-04|Hewlett-Packard Development Company, L.P.|System and method for providing object location information and physical contact information|
US8373654B2|2010-04-29|2013-02-12|Acer Incorporated|Image based motion gesture recognition method and system thereof|
CN102236409A|2010-04-30|2011-11-09|宏碁股份有限公司|基于影像的动作手势辨识方法及系统|
US8457353B2|2010-05-18|2013-06-04|Microsoft Corporation|Gestures and gesture modifiers for manipulating a user-interface|
US9245177B2|2010-06-02|2016-01-26|Microsoft Technology Licensing, Llc|Limiting avatar gesture display|
FR2960986A1|2010-06-04|2011-12-09|Thomson Licensing|Procede de selection d’un objet dans un environnement virtuel|
US20110299737A1|2010-06-04|2011-12-08|Acer Incorporated|Vision-based hand movement recognition system and method thereof|
US8416189B2|2010-06-04|2013-04-09|Acer Incorporated|Manual human machine interface operation system and method thereof|
US9009594B2|2010-06-10|2015-04-14|Microsoft Technology Licensing, Llc|Content gestures|
US9358456B1|2010-06-11|2016-06-07|Harmonix Music Systems, Inc.|Dance competition game|
US8296151B2|2010-06-18|2012-10-23|Microsoft Corporation|Compound gesture-speech commands|
JP5802667B2|2010-07-20|2015-10-28|パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America|ジェスチャ入力装置およびジェスチャ入力方法|
JP5264844B2|2010-09-06|2013-08-14|日本電信電話株式会社|ジェスチャ認識装置及び方法|
US20120060127A1|2010-09-06|2012-03-08|Multitouch Oy|Automatic orientation of items on a touch screen display utilizing hand direction|
JP5625643B2|2010-09-07|2014-11-19|ソニー株式会社|情報処理装置、および情報処理方法|
EP2431895B1|2010-09-16|2017-07-26|LG Electronics Inc.|Transparent display device and method for providing information using the same|
US8736516B2|2010-09-20|2014-05-27|Kopin Corporation|Bluetooth or other wireless interface with power management for head mounted display|
JP2012068713A|2010-09-21|2012-04-05|Sony Corp|情報処理装置、および情報処理方法|
US8587540B2|2010-11-05|2013-11-19|Apple Inc.|Device, method, and graphical user interface for manipulating soft keyboards|
US8587547B2|2010-11-05|2013-11-19|Apple Inc.|Device, method, and graphical user interface for manipulating soft keyboards|
US8640021B2|2010-11-12|2014-01-28|Microsoft Corporation|Audience-based presentation and customization of content|
KR101731346B1|2010-11-12|2017-04-28|엘지전자 주식회사|멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치|
US9575561B2|2010-12-23|2017-02-21|Intel Corporation|Method, apparatus and system for interacting with content on web browsers|
EP2474950B1|2011-01-05|2013-08-21|Softkinetic Software|Natural gesture based user interface methods and systems|
KR101858531B1|2011-01-06|2018-05-17|삼성전자주식회사|모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법|
KR20120080072A|2011-01-06|2012-07-16|삼성전자주식회사|모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법|
KR101795574B1|2011-01-06|2017-11-13|삼성전자주식회사|모션에 의해 제어되는 전자기기 및 그 제어 방법|
US20120179965A1|2011-01-12|2012-07-12|Whitney Taylor|Gesture-based navigation system for a mobile device|
US9436381B2|2011-01-24|2016-09-06|Apple Inc.|Device, method, and graphical user interface for navigating and annotating an electronic document|
US9250798B2|2011-01-24|2016-02-02|Apple Inc.|Device, method, and graphical user interface with a dynamic gesture disambiguation threshold|
WO2012115627A1|2011-02-22|2012-08-30|Hewlett-Packard Development Company, L.P.|Control area for facilitating user input|
WO2012125596A2|2011-03-12|2012-09-20|Parshionikar Uday|Multipurpose controller for electronic devices, facial expressions management and drowsiness detection|
CN103430215B|2011-03-21|2017-03-22|Lg电子株式会社|显示装置及其控制方法|
EP2691834A4|2011-03-28|2015-02-18|Gestsure Technologies Inc|Gesture operated control for medical information systems|
JP2012208619A|2011-03-29|2012-10-25|Nec Corp|電子機器、通知方法およびプログラム|
US8928589B2|2011-04-20|2015-01-06|Qualcomm Incorporated|Virtual keyboards and methods of providing the same|
BR112013026624A2|2011-04-20|2016-12-27|Koninkl Philips Nv|aparelho para o controle de um elemento ou um item, dispositivo, método para o controle de um elemento ou um item, produto de programa de computador e meio de armazenamento|
US9440144B2|2011-04-21|2016-09-13|Sony Interactive Entertainment Inc.|User identified to a controller|
US8702507B2|2011-04-28|2014-04-22|Microsoft Corporation|Manual and camera-based avatar control|
JP5406883B2|2011-05-20|2014-02-05|株式会社コナミデジタルエンタテインメント|GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM|
US8740702B2|2011-05-31|2014-06-03|Microsoft Corporation|Action trigger gesturing|
US8845431B2|2011-05-31|2014-09-30|Microsoft Corporation|Shape trace gesturing|
US9213438B2|2011-06-02|2015-12-15|Omnivision Technologies, Inc.|Optical touchpad for touch and gesture recognition|
US9921641B1|2011-06-10|2018-03-20|Amazon Technologies, Inc.|User/object interactions in an augmented reality environment|
US9996972B1|2011-06-10|2018-06-12|Amazon Technologies, Inc.|User/object interactions in an augmented reality environment|
US10008037B1|2011-06-10|2018-06-26|Amazon Technologies, Inc.|User/object interactions in an augmented reality environment|
US9204094B2|2011-06-28|2015-12-01|Lifesize Communications, Inc.|Adjusting volume of a videoconference using touch-based gestures|
JP2013017146A|2011-07-06|2013-01-24|Sony Corp|表示制御装置、表示制御方法およびプログラム|
US9292112B2|2011-07-28|2016-03-22|Hewlett-Packard Development Company, L.P.|Multimodal interface|
AU2011205223C1|2011-08-09|2013-03-28|Microsoft Technology Licensing, Llc|Physical interaction with virtual objects for DRM|
US9153195B2|2011-08-17|2015-10-06|Microsoft Technology Licensing, Llc|Providing contextual personal information by a mixed reality device|
US10019962B2|2011-08-17|2018-07-10|Microsoft Technology Licensing, Llc|Context adaptive user interface for augmented reality display|
WO2013028813A1|2011-08-23|2013-02-28|Microsoft Corporation|Implicit sharing and privacy control through physical behaviors using sensor-rich devices|
WO2013028908A1|2011-08-24|2013-02-28|Microsoft Corporation|Touch and social cues as inputs into a computer|
US20130103446A1|2011-10-20|2013-04-25|Microsoft Corporation|Information sharing democratization for co-located group meetings|
KR20130047890A|2011-11-01|2013-05-09|삼성전기주식회사|원격 조정 장치 및 원격 조정 장치의 제스처 인식 방법|
US8719734B2|2011-11-16|2014-05-06|Microsoft Corporation|Two-stage swipe gesture recognition|
US8803800B2|2011-12-02|2014-08-12|Microsoft Corporation|User interface control based on head orientation|
CA2781742A1|2011-12-08|2012-09-11|Exopc|User interface and method for providing same|
US9100685B2|2011-12-09|2015-08-04|Microsoft Technology Licensing, Llc|Determining audience state or interest using passive sensor data|
CN103164064B|2011-12-15|2016-02-10|英顺源(上海)科技有限公司|在任意位置输入目标手势以执行对应控制的系统及其方法|
WO2013095671A1|2011-12-23|2013-06-27|Intel Corporation|Transition mechanism for computing system utilizing user sensing|
US9678574B2|2011-12-23|2017-06-13|Intel Corporation|Computing system utilizing three-dimensional manipulation command gestures|
US10345911B2|2011-12-23|2019-07-09|Intel Corporation|Mechanism to provide visual feedback regarding computing system command gestures|
US9684379B2|2011-12-23|2017-06-20|Intel Corporation|Computing system utilizing coordinated two-hand command gestures|
DE102012000201A1|2012-01-09|2013-07-11|Daimler Ag|Verfahren und Vorrichtung zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt|
US8693731B2|2012-01-17|2014-04-08|Leap Motion, Inc.|Enhanced contrast for object detection and characterization by optical imaging|
US8638989B2|2012-01-17|2014-01-28|Leap Motion, Inc.|Systems and methods for capturing motion in three-dimensional space|
US10691219B2|2012-01-17|2020-06-23|Ultrahaptics IP Two Limited|Systems and methods for machine control|
US9679215B2|2012-01-17|2017-06-13|Leap Motion, Inc.|Systems and methods for machine control|
US9070019B2|2012-01-17|2015-06-30|Leap Motion, Inc.|Systems and methods for capturing motion in three-dimensional space|
US20130198690A1|2012-02-01|2013-08-01|Microsoft Corporation|Visual indication of graphical user interface relationship|
US20130204408A1|2012-02-06|2013-08-08|Honeywell International Inc.|System for controlling home automation system using body movements|
JP6209169B2|2012-02-20|2017-10-04|ビーエーエスエフ ソシエタス・ヨーロピアBasf Se|Enhancement of antimicrobial activity of biocides using polymers|
JP6271444B2|2012-02-24|2018-01-31|トーマス ジェイ モスカリッロMOSCARILLO, Thomas, J.|Gesture recognition apparatus and method|
US10503373B2|2012-03-14|2019-12-10|Sony Interactive Entertainment LLC|Visual feedback for highlight-driven gesture user interfaces|
JP5858850B2|2012-04-02|2016-02-10|三菱電機株式会社|空気調和機の室内機|
CA2775700C|2012-05-04|2013-07-23|Microsoft Corporation|Determining a future portion of a currently presented media program|
US9256781B2|2012-05-10|2016-02-09|Pointguard Ltd.|System and method for computer vision based tracking of an object|
US8938124B2|2012-05-10|2015-01-20|Pointgrab Ltd.|Computer vision based tracking of a hand|
WO2012126426A2|2012-05-21|2012-09-27|华为技术有限公司|一种非接触式手势控制方法及装置|
TW201405443A|2012-07-17|2014-02-01|Wistron Corp|手勢輸入系統及方法|
KR20140014548A|2012-07-24|2014-02-06|삼성전자주식회사|전자 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체|
CN103576847B|2012-08-09|2016-03-30|腾讯科技(深圳)有限公司|获取账号信息的方法和装置|
US9032335B2|2012-08-14|2015-05-12|Christopher V. Beckman|User interface techniques reducing the impact of movements|
JP5665140B2|2012-08-17|2015-02-04|Necソリューションイノベータ株式会社|入力装置、入力方法、及びプログラム|
US20140100955A1|2012-10-05|2014-04-10|Microsoft Corporation|Data and user interaction based on device proximity|
TWI475496B|2012-10-16|2015-03-01|Wistron Corp|手勢控制裝置及於手勢控制裝置中設定及取消手勢操作區域之方法|
KR102095765B1|2012-10-19|2020-04-01|삼성전자주식회사|디스플레이 장치 및 그 제어 방법|
US9285893B2|2012-11-08|2016-03-15|Leap Motion, Inc.|Object detection and tracking with variable-field illumination devices|
US9582122B2|2012-11-12|2017-02-28|Microsoft Technology Licensing, Llc|Touch-sensitive bezel techniques|
US9477313B2|2012-11-20|2016-10-25|Samsung Electronics Co., Ltd.|User gesture input to wearable electronic device involving outward-facing sensor of device|
US10185416B2|2012-11-20|2019-01-22|Samsung Electronics Co., Ltd.|User gesture input to wearable electronic device involving movement of device|
US10423214B2|2012-11-20|2019-09-24|Samsung Electronics Company, Ltd|Delegating processing from wearable electronic device|
US8994827B2|2012-11-20|2015-03-31|Samsung Electronics Co., Ltd|Wearable electronic device|
US10551928B2|2012-11-20|2020-02-04|Samsung Electronics Company, Ltd.|GUI transitions on wearable electronic device|
TWI516093B|2012-12-22|2016-01-01|財團法人工業技術研究院|影像互動系統、手指位置的偵測方法、立體顯示系統以及立體顯示器的控制方法|
US8933882B2|2012-12-31|2015-01-13|Intentive Inc.|User centric interface for interaction with visual display that recognizes user intentions|
US10609285B2|2013-01-07|2020-03-31|Ultrahaptics IP Two Limited|Power consumption in motion-capture systems|
US9465461B2|2013-01-08|2016-10-11|Leap Motion, Inc.|Object detection and tracking with audio and optical signals|
CN103019389B|2013-01-12|2016-05-18|福建华映显示科技有限公司|手势辨识系统及手势辨识方法|
US20140201685A1|2013-01-14|2014-07-17|Darren Lim|User input determination|
US9501152B2|2013-01-15|2016-11-22|Leap Motion, Inc.|Free-space user interface and control using virtual constructs|
US9696867B2|2013-01-15|2017-07-04|Leap Motion, Inc.|Dynamic user interactions for display control and identifying dominant gestures|
US9459697B2|2013-01-15|2016-10-04|Leap Motion, Inc.|Dynamic, free-space user interactions for machine control|
JP6171353B2|2013-01-18|2017-08-02|株式会社リコー|情報処理装置、システム、情報処理方法およびプログラム|
CN103970455B|2013-01-28|2018-02-27|联想有限公司|一种信息处理方法及电子设备|
US9785228B2|2013-02-11|2017-10-10|Microsoft Technology Licensing, Llc|Detecting natural user-input engagement|
WO2014142370A1|2013-03-14|2014-09-18|엘지전자 주식회사|디스플레이 장치 및 디스플레이 장치의 구동방법|
US9110541B1|2013-03-14|2015-08-18|Amazon Technologies, Inc.|Interface selection approaches for multi-dimensional input|
US9294539B2|2013-03-14|2016-03-22|Microsoft Technology Licensing, Llc|Cooperative federation of digital devices via proxemics and device micro-mobility|
WO2014200589A2|2013-03-15|2014-12-18|Leap Motion, Inc.|Determining positional information for an object in space|
US20140282274A1|2013-03-15|2014-09-18|Qualcomm Incorporated|Detection of a gesture performed with at least two control objects|
US10220303B1|2013-03-15|2019-03-05|Harmonix Music Systems, Inc.|Gesture-based music game|
US9063576B1|2013-04-04|2015-06-23|Amazon Technologies, Inc.|Managing gesture input information|
US10620709B2|2013-04-05|2020-04-14|Ultrahaptics IP Two Limited|Customized gesture interpretation|
US9916009B2|2013-04-26|2018-03-13|Leap Motion, Inc.|Non-tactile interface systems and methods|
DE102013208762A1|2013-05-13|2014-11-13|Siemens Aktiengesellschaft|Intuitive gesture control|
US9747696B2|2013-05-17|2017-08-29|Leap Motion, Inc.|Systems and methods for providing normalized parameters of motions of objects in three-dimensional space|
US10620775B2|2013-05-17|2020-04-14|Ultrahaptics IP Two Limited|Dynamic interactive objects|
US9436288B2|2013-05-17|2016-09-06|Leap Motion, Inc.|Cursor mode switching|
US9829984B2|2013-05-23|2017-11-28|Fastvdo Llc|Motion-assisted visual language for human computer interfaces|
CN111258378A|2013-08-07|2020-06-09|耐克创新有限合伙公司|具有姿态识别和功率管理的腕戴式运动装置|
US10281987B1|2013-08-09|2019-05-07|Leap Motion, Inc.|Systems and methods of free-space gestural interaction|
US20150067603A1|2013-09-05|2015-03-05|Kabushiki Kaisha Toshiba|Display control device|
US20150070263A1|2013-09-09|2015-03-12|Microsoft Corporation|Dynamic Displays Based On User Interaction States|
WO2015051461A1|2013-10-09|2015-04-16|Magna Closures Inc.|Control of display for vehicle window|
US10152136B2|2013-10-16|2018-12-11|Leap Motion, Inc.|Velocity field interaction for free space gesture interface and control|
US9996638B1|2013-10-31|2018-06-12|Leap Motion, Inc.|Predictive information for free space gesture control and communication|
US20150139483A1|2013-11-15|2015-05-21|David Shen|Interactive Controls For Operating Devices and Systems|
US9740296B2|2013-12-16|2017-08-22|Leap Motion, Inc.|User-defined virtual interaction space and manipulation of virtual cameras in the interaction space|
KR20150073378A|2013-12-23|2015-07-01|삼성전자주식회사|동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스를 표시하는 장치 및 방법|
CN103677276A|2013-12-31|2014-03-26|广州视声电子科技有限公司|一种动作感应装置|
US9910501B2|2014-01-07|2018-03-06|Toshiba Global Commerce Solutions Holdings Corporation|Systems and methods for implementing retail processes based on machine-readable images and user gestures|
US10019149B2|2014-01-07|2018-07-10|Toshiba Global Commerce Solutions Holdings Corporation|Systems and methods for implementing retail processes based on machine-readable images and user gestures|
US9613262B2|2014-01-15|2017-04-04|Leap Motion, Inc.|Object detection and tracking for providing a virtual device experience|
WO2015117052A1|2014-01-31|2015-08-06|Putman Matthew C|Apparatus and method for manipulating objects with gesture controls|
US9823748B2|2014-02-07|2017-11-21|LenovoPte. Ltd.|Control input handling|
US10713389B2|2014-02-07|2020-07-14|LenovoPte. Ltd.|Control input filtering|
US9986225B2|2014-02-14|2018-05-29|Autodesk, Inc.|Techniques for cut-away stereo content in a stereoscopic display|
US10691332B2|2014-02-28|2020-06-23|Samsung Electronics Company, Ltd.|Text input on an interactive display|
US9477337B2|2014-03-14|2016-10-25|Microsoft Technology Licensing, Llc|Conductive trace routing for display and bezel sensors|
CN104978017A|2014-04-14|2015-10-14|冠捷投资有限公司|利用使用者手势操控显示装置的功能选单的方法|
JP6303772B2|2014-04-25|2018-04-04|富士通株式会社|入力制御装置、制御方法および制御プログラム|
US9886094B2|2014-04-28|2018-02-06|Microsoft Technology Licensing, Llc|Low-latency gesture detection|
US20150331534A1|2014-05-13|2015-11-19|LenovoPte. Ltd.|Detecting inadvertent gesture controls|
US9898162B2|2014-05-30|2018-02-20|Apple Inc.|Swiping functions for messaging applications|
US9971500B2|2014-06-01|2018-05-15|Apple Inc.|Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application|
CN104020853A|2014-06-23|2014-09-03|暨南大学|基于Kinect的操纵网络浏览器的系统及方法|
JP6282188B2|2014-07-04|2018-02-21|クラリオン株式会社|情報処理装置|
JP6335695B2|2014-07-09|2018-05-30|キヤノン株式会社|情報処理装置、その制御方法、プログラム、及び記憶媒体|
US9952763B1|2014-08-26|2018-04-24|Google Llc|Alternative gesture mapping for a graphical keyboard|
US9811649B2|2014-11-13|2017-11-07|Intel Corporation|System and method for feature-based authentication|
US10809794B2|2014-12-19|2020-10-20|Hewlett-Packard Development Company, L.P.|3D navigation mode|
TW201627822A|2015-01-26|2016-08-01|國立清華大學|具有無線控制器的投影裝置與其投影方法|
KR20160097520A|2015-02-09|2016-08-18|삼성전자주식회사|디스플레이 장치 및 그의 ui 디스플레이 방법|
JP6617417B2|2015-03-05|2019-12-11|セイコーエプソン株式会社|表示装置及び表示装置の制御方法|
JP6569259B2|2015-03-23|2019-09-04|セイコーエプソン株式会社|位置検出装置、表示装置、位置検出方法、及び、表示方法|
JP6524741B2|2015-03-23|2019-06-05|セイコーエプソン株式会社|位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法|
DE102015210657B4|2015-06-11|2017-05-24|Volkswagen Aktiengesellschaft|Method for detecting an adjusting movement of a control element located on a display surface in a motor vehicle and device for carrying out the method|
WO2017048721A1|2015-09-14|2017-03-23|Gentex Corporation|Vehicle based trainable transceiver and authentication of user|
US20170103672A1|2015-10-09|2017-04-13|The Regents Of The University Of California|System and method for gesture capture and real-time cloud based avatar training|
US10691214B2|2015-10-12|2020-06-23|Honeywell International Inc.|Gesture control of building automation system components during installation and/or maintenance|
US10649536B2|2015-11-24|2020-05-12|Intel Corporation|Determination of hand dimensions for hand and gesture recognition with a computing interface|
KR101823208B1|2015-12-04|2018-01-29|엘지전자 주식회사|공기 조화기 및 그 제어방법|
US20170169616A1|2015-12-11|2017-06-15|Google Inc.|Context sensitive user interface activation in an augmented and/or virtual reality environment|
US10313657B2|2015-12-25|2019-06-04|Boe Technology Group Co., Ltd.|Depth map generation apparatus, method and non-transitory computer-readable medium therefor|
US10140776B2|2016-06-13|2018-11-27|Microsoft Technology Licensing, Llc|Altering properties of rendered objects via control points|
CN109416573A|2016-07-12|2019-03-01|三菱电机株式会社|设备控制系统|
JPWO2018087977A1|2016-11-08|2019-09-26|ソニー株式会社|情報処理装置、情報処理方法、プログラム|
US10599920B2|2017-02-01|2020-03-24|Epilog Imaging Systems|Automated digital magnifier system with hand gesture controls|
WO2019032967A1|2017-08-10|2019-02-14|Google Llc|Context-sensitive hand interaction|
US20190391662A1|2018-06-20|2019-12-26|Sony Interactive Entertainment Inc.|Gesture-based user interface for ar and vr with gaze trigger|
CN109189218B|2018-08-20|2019-05-10|广州市三川田文化科技股份有限公司|一种手势识别的方法、装置、设备及计算机可读存储介质|
EP3667460A1|2018-12-14|2020-06-17|InterDigital CE Patent Holdings|Methods and apparatus for user -device interaction|
法律状态:
2012-02-07| A711| Notification of change in applicant|Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20120206 |
2012-02-23| A621| Written request for application examination|Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120222 |
2012-11-14| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121113 |
2013-02-13| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130212 |
2013-02-20| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130219 |
2013-03-13| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130312 |
2013-03-21| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130319 |
2013-04-16| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130415 |
2013-10-02| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131001 |
2013-12-26| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20131225 |
2014-01-09| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140108 |
2014-02-04| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140203 |
2014-06-30| TRDD| Decision of grant or rejection written|
2014-07-08| A01| Written decision to grant a patent or to grant a registration (utility model)|Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140707 |
2014-08-14| A61| First payment of annual fees (during grant procedure)|Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140806 |
2014-08-15| R150| Certificate of patent or registration of utility model|Ref document number: 5595935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
2017-08-08| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2018-08-07| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2019-08-06| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2020-07-31| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
2021-07-30| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 |
优先权:
申请号 | 申请日 | 专利标题
[返回顶部]